अब तक हम सभी ने आर्टिफिशियल इंटेलिजेंस (एआई) के बारे में बहुत कुछ सुना और पढ़ा है। आपने संभवत: उपलब्ध हो रहे अनगिनत एआई उपकरणों में से कुछ का उपयोग किया होगा। कुछ लोगों के लिए, एआई एक जादू की छड़ी की तरह लगता है जो हर मुश्किल आसान कर सकता है। लेकिन एआई परफेक्ट नहीं है।
एओटेरोआ न्यूज़ीलैंड में एक सुपरमार्केट भोजन योजनाकार ने ग्राहकों को जहरीली रेसिपी दी, न्यूयॉर्क शहर के एक चैटबॉट ने लोगों को कानून तोड़ने की सलाह दी, और गूगल का एआई ओवरव्यू लोगों को चट्टानें खाने के लिए कह रहा है। मुद्दे की बात यह है कि एआई उपकरण एक विशेष पण्राली है जो किसी विशेष समस्या का समाधान करती है। किसी भी एआई पण्राली के साथ, हमें अपनी अपेक्षाओं को उसकी क्षमताओं से मेल खाना चाहिए और उनमें से कई इस बात पर निर्भर करते हैं कि एआई का निर्माण कैसे किया गया। वास्तविक दुनिया में परेशानी सभी एआई पण्रालियों के लिए अंतर्निहित मुद्दों में से एक यह है कि वे वास्तविक दुनिया की सेंिटग्स में 100 फीसद सटीक नहीं हैं। उदाहरण के लिए, एक पूर्वानुमानित एआई पण्राली को अतीत के डेटांिबदुओं का उपयोग करके प्रशिक्षित किया जाएगा। यदि एआई को कुछ नया मिलता है जो प्रशिक्षण डेटा में किसी भी चीज़ के समान नहीं है तो यह संभवत: सही निर्णय लेने में सक्षम नहीं होगा।
एक काल्पनिक उदाहरण के रूप में, आइए एआई-संचालित ऑटोपायलट पण्राली से सुसज्जित एक सैन्य विमान लें। यह पण्राली अपने प्रशिक्षण ‘ज्ञान आधार’ की बदौलत कार्य करेगी। लेकिन एआई वास्तव में कोई जादू की छड़ी नहीं है, यह सिर्फ गणितीय गणना है। एक प्रतिकूल स्थिति ऐसी बाधाएं पैदा कर सकती है जिसे विमान एआई ’देख’ नहीं सकता क्योंकि वे प्रशिक्षण डेटा में नहीं हैं, जिससे संभावित विनाशकारी परिणाम हो सकते हैं। दुर्भाग्य से हम इस समस्या के बारे में एआई को उन सभी संभावित परिस्थितियों के लिए प्रशिक्षित करने की कोशिश करने के अलावा और कुछ नहीं कर सकते हैं जिनके बारे में हम जानते हैं। यह कभी-कभी एक दुर्गम कार्य हो सकता है। प्रशिक्षण डेटा में पूर्वाग्रह आपने एआई द्वारा पक्षपातपूर्ण निर्णय लेने के बारे में सुना होगा। आमतौर पर, पूर्वाग्रह तब होता है जब हमारे पास असंतुलित डेटा होता है।