ईरान के दक्षिणी शहर मिनाब (Minab) में 28 फरवरी 2026 को जो हुआ, उसने पूरी दुनिया को झकझोर दिया। अमेरिका ने एक लड़कियों के प्राइमरी स्कूल पर मिसाइल दागी और इससे 160 से ज्यादा बच्चियों (160 girls killed) की मौत हो गई। यह हमला उस वक्त हुआ जब क्लास चल रही थी और स्कूल में 7 से 12 साल की उम्र की सैकड़ों छात्राएं मौजूद थीं। इस घटना को अब 2026 के ईरान युद्ध की सबसे घातक त्रासदियों में से एक माना जा रहा है।
सबसे बड़ा सवाल: आखिर एक स्कूल कैसे बना टारगेट?
इस हमले ने तीन बुनियादी सवाल खड़े किए हैं:
- क्या यह जानबूझकर किया गया अटैक था?
- क्या यह युद्ध की अफरा-तफरी में हुई गलती थी?
- क्या युद्ध में इस्तेमाल हो रही आर्टिफिशियल इंटेलिजेंस (AI) ने कोई बड़ी गलती कर दी?
इतिहास में पहली बार किसी जंग में इस स्तर पर AI का इस्तेमाल हुआ है। अमेरिकी सरकार Anthropic और Open AI जैसी कंपनियों के साथ करार कर चुकी है ताकि युद्ध में बड़े पैमाने पर AI का उपयोग किया जा सके।
मिनाब के स्कूल पर हमला कैसे हुआ?
जिस स्कूल को निशाना बनाया गया, वह शाजारेह तैय्यबेह गर्ल्स स्कूल (Shajareh Tayyabeh Girls’ School) था। यह हमला उस दिन हुआ जब अमेरिका और इजराइल ने ईरान पर बड़े पैमाने पर हवाई हमले शुरू किए थे। अमेरिकी अधिकारियों ने कहा कि वे जानबूझकर किसी स्कूल को निशाना नहीं बनाते और मामले की जांच की जा रही है।
जांच में यह सामने आया कि जिस जगह स्कूल था, वहां कभी ईरान की रिवोल्यूशनरी गार्ड (IRGC) का बेस हुआ करता था। कई रिपोर्ट्स में कहा गया कि हमला शायद उसी सैन्य परिसर को निशाना बनाकर किया गया था जो स्कूल के बिल्कुल पास था। यहीं से सवाल उठता है कि अगर टारगेट सैन्य ठिकाना था, तो मिसाइल स्कूल पर कैसे गिर गई?
मॉडर्न वॉर और AI का नया रोल
आज की लड़ाइयों में टारगेट चुनने का काम सिर्फ इंसान नहीं करते। अमेरिका और इजरायल जैसी सेनाएं बड़े पैमाने पर AI बेस्ड टार्गेटेड सिस्टम (AI-based targeting systems) का इस्तेमाल करती हैं। इन सिस्टम्स का काम सैटेलाइट तस्वीरों, ड्रोन फीड, फोन लोकेशन और डेटा एनालिसिस के आधार पर यह तय करना होता है कि हमला कहां करना है।
AI हजारों संभावित टारगेट का विश्लेषण करके सेकंडों में यह तय कर सकता है कि कौन-सी इमारत या लोकेशन सैन्य ठिकाना हो सकती है। यही वजह है कि आधुनिक युद्ध को अब कई विशेषज्ञ ‘एल्गोरिद्म वारफेयर’ (Algorithm Warfare) कहने लगे हैं। लेकिन समस्या यह है कि AI जितना तेज है, उतना ही जोखिम भरा भी हो सकता है।
AI कैसे कर सकता है घातक गलती?
अगर मिनाब हमले को तकनीकी नजरिए से देखें तो कई संभावनाएं सामने आती हैं:
- गलत डेटा या पुरानी जानकारी: अगर AI सिस्टम को यह जानकारी मिली हो कि उस इलाके में अभी भी सैन्य बेस मौजूद है, तो वह उसी आधार पर टारगेट चुन सकता है, जबकि असलियत में वहां कई साल पहले स्कूल बन चुका था।
- टारगेट के आसपास की इमारतों का गलत विश्लेषण: कई बार सैन्य ठिकाने और नागरिक इमारतें एक ही इलाके में होती हैं। अगर AI एल्गोरिद्म ने पूरे परिसर को सैन्य क्षेत्र मान लिया हो, तो मिसाइल सीधे स्कूल पर गिर सकती है।
- ऑटोमेटेड टारगेटिंग का ओवर-रिलायंस: कई आधुनिक हथियारों में टारगेट चुनने के बाद अंतिम फैसला इंसान की बजाय एल्गोरिद्म और ऑटोमेटेड सिस्टम लेते हैं। अगर उस प्रक्रिया में मानवीय जांच कम हो जाए तो गलती की संभावना बढ़ जाती है।
पहले भी उठ चुके हैं ऐसे सवाल
गाजा युद्ध (Gaza War) के दौरान भी इजराइल पर आरोप लगे थे कि उसने AI आधारित सिस्टम ‘Lavender’ का इस्तेमाल कर हजारों टारगेट की सूची तैयार की थी। रिपोर्ट्स के मुताबिक उस सिस्टम की सटीकता पर भी सवाल उठे थे और कई बार गलत टारगेट चुने गए। यही वजह है कि विशेषज्ञ लंबे समय से चेतावनी दे रहे हैं कि अगर युद्ध में AI को पूरी तरह खुली छूट मिल गई, तो इंसानी कंट्रोल कमजोर पड़ सकता है।
मिनाब की त्रासदी: क्या यह AI की चेतावनी है?
मिनाब में जो हुआ, उसका सच अभी जांच के बाद ही सामने आएगा। लेकिन इतना साफ है कि आधुनिक युद्ध अब सिर्फ सैनिकों और हथियारों का नहीं रहा। इसमें एल्गोरिद्म, डेटा और मशीन लर्निंग (Algorithms, Data and Machine Learning) भी शामिल हो चुके हैं। मशीन का गलती करना लाजमी है और एक गलती भारी पड़ सकती है।
अगर टारगेटिंग सिस्टम में जरा सी भी गलती हो जाए, या गलत डेटा फीड हो जाए, तो उसका नतीजा वही हो सकता है जो मिनाब में हुआ… जहां क्लास में बैठी बच्चियों पर मिसाइल गिर गई। युद्ध में AI का इस्तेमाल तेजी से बढ़ रहा है, लेकिन मिनाब जैसी घटनाएं यह सवाल जरूर उठाती हैं कि क्या मशीनों को जीवन और मौत का फैसला करने देना सुरक्षित है।