गार्जियन की एक रिपोर्ट के अनुसार, वैश्विक परामर्श फर्म डेलॉइट ऑस्ट्रेलियाई संघीय सरकार को 440,000 डॉलर (लगभग 3.90 करोड़ रुपये) की रिपोर्ट के लिए आंशिक धनवापसी प्रदान करेगी, जिसमें दस्तावेज़ तैयार करने में मदद के लिए जेनरेटिव आर्टिफिशियल इंटेलिजेंस (जेन एआई) का उपयोग करने की बात स्वीकार करने के बाद कई त्रुटियां थीं। रोजगार और कार्यस्थल संबंध विभाग (डीईडब्ल्यूआर) ने कल्याण प्राप्तकर्ताओं के लिए दंड को स्वचालित करने के लिए उपयोग किए जाने वाले अनुपालन ढांचे और आईटी प्रणालियों का आकलन करने के लिए रिपोर्ट शुरू की। विभाग ने शुरुआत में 4 जुलाई, 2025 को रिपोर्ट प्रकाशित की।
बाद में, शिक्षाविदों के एक समूह ने एआई मतिभ्रम को देखा और अलार्म बजाया। सिडनी विश्वविद्यालय के कल्याण अकादमिक क्रिस रुडगे ने कहा कि शोधकर्ताओं ने रिपोर्ट में कुछ प्रकाशनों का उल्लेख किया है जो वास्तविक जीवन में मौजूद नहीं हैं। विडंबना यह है कि डेलॉइट के प्रवक्ता ने तब कहा कि वे अपने काम पर कायम हैं और “संदर्भित प्रत्येक लेख की सामग्री सटीक है।”
यह घटना एक महत्वपूर्ण सवाल उठाती है: जब कृत्रिम बुद्धिमत्ता गलत जानकारी उत्पन्न करती है तो जिम्मेदारी किसकी होनी चाहिए? क्या अधिकारी प्रौद्योगिकी के पीछे की कंपनी को उसके सिस्टम द्वारा उत्पादित सामग्री के लिए जिम्मेदार ठहरा सकते हैं, या क्या उपयोगकर्ता पूरी ज़िम्मेदारी लेता है?
AI कंपनियों को उत्तरदायी क्यों नहीं ठहराया जाता?
सोलोमन एंड कंपनी, एडवोकेट्स एंड सॉलिसिटर्स के पार्टनर जर्मेन परेरा ने कहा कि देनदारी के मुद्दों को अधिक बारीकी से निर्धारित करने के लिए एक निश्चित एआई नीति ढांचे की आवश्यकता है। उन्होंने आगे बताया कि किसी भी कंपनी सहित उपयोगकर्ता, एआई मशीन या किसी कंपनी को उसके द्वारा उत्पन्न जानकारी के लिए उत्तरदायी क्यों नहीं ठहरा सकते।
उन्होंने बताया कि किसी कंपनी की देनदारी प्रदान की गई सेवाओं के लिए अनुबंध की शर्तों पर निर्भर करेगी। “तो, यदि एआई उपकरण द्वारा कोई त्रुटि उत्पन्न होती है, तो दायित्व अभी भी अंतिम रिपोर्ट तैयार करने वाली कंपनी के साथ है, एआई कंपनी या उपकरण के साथ नहीं। क्योंकि ग्राहक का अनुबंध उस विशेष कंपनी के साथ है, न कि केवल एआई उपकरण के साथ,” उसने कहा।
एक अनुभवी प्रौद्योगिकी वकील, जिन्होंने एआई प्रशासन और विनियमन पर वैश्विक निगमों को सलाह दी है, ने भी (नाम न छापने की शर्त पर) कहा कि उपयोगकर्ताओं को, किसी भी विक्रेता की तरह, या जो कोई भी रिपोर्ट को अधिकृत करने के लिए जिम्मेदार है, उसे कृत्रिम बुद्धिमत्ता उपकरणों द्वारा उत्पन्न सभी सामग्री की तथ्य-जांच करनी चाहिए।
वकील ने यह भी कहा, “चूंकि अधिकांश एआई प्लेटफॉर्म अपनी सेवा की शर्तों में स्पष्ट रूप से बताते हैं कि उत्पन्न आउटपुट की सटीकता की पुष्टि करने के लिए उपयोगकर्ता जिम्मेदार हैं, इसलिए वे सेवा में कमी का दावा करने की उपयोगकर्ताओं की क्षमता को सीमित कर देते हैं।”
परेरा ने आगे एक ऐसे परिदृश्य का वर्णन किया जहां कानूनी अस्पष्ट क्षेत्र और भी जटिल हो जाता है: जब कोई कंपनी ग्राहकों के प्रश्नों को संभालने के लिए एक बड़े भाषा मॉडल (एलएलएम) का उपयोग करती है। उन्होंने एक ऐसी एयरलाइन का काल्पनिक उदाहरण पेश किया जो यात्रियों के सवालों का जवाब देने के लिए कृत्रिम बुद्धिमत्ता से संचालित चैटबॉट का उपयोग कर सकती है। यदि चैटबॉट “मतिभ्रम” करता है और गलत जानकारी प्रदान करता है, उदाहरण के लिए, उड़ान में देरी के बारे में गलत अपडेट, जिस पर ग्राहक भरोसा करता है और वित्तीय नुकसान उठाता है, तो यात्री को आदर्श रूप से किसे जवाबदेह ठहराया जाना चाहिए: एयरलाइन कंपनी या उसके द्वारा नियोजित एआई उपकरण?
सरकार में AI के उपयोग के बारे में ऑस्ट्रेलिया की नीति क्या कहती है?
ऑस्ट्रेलियाई सरकार के सरकारी ढांचे में आर्टिफिशियल इंटेलिजेंस के आश्वासन ने राज्य एजेंसियों के लिए आधिकारिक कार्यभार के लिए कृत्रिम इंटेलिजेंस की खरीद या उपयोग करने से पहले पालन करने के लिए दिशानिर्देश निर्धारित किए हैं। इसलिए, नीति में कहा गया है कि एजेंसियों को ऐसे सिस्टम या उत्पाद खरीदने चाहिए जो राष्ट्रीय कृत्रिम बुद्धिमत्ता नैतिकता सिद्धांतों का अनुपालन करते हैं जिन्हें सरकार ने 2019 में पारित किया था। इन नीतियों के तहत, एजेंसियों को जोखिमों के प्रबंधन के लिए उचित परिश्रम करना चाहिए और एआई विक्रेताओं और उनके कर्मचारियों के बीच ज्ञान हस्तांतरण की सुविधा के लिए आंतरिक कौशल विकास कार्यक्रमों में निवेश करना चाहिए।
मार्गदर्शन में आगे कहा गया है कि विक्रेताओं को घटनाओं के मामले में कृत्रिम बुद्धिमत्ता प्रणाली आउटपुट की समीक्षा, निगरानी और मूल्यांकन का समर्थन करने में सक्षम होना चाहिए, जिसमें ऐसी समीक्षाओं के लिए साक्ष्य और सहायता प्रदान करना शामिल है। यह स्पष्ट जवाबदेही संरचनाओं के रखरखाव को अनिवार्य करता है और एजेंसियों को एआई प्रणाली के जीवन चक्र के दौरान प्रासंगिक सूचना परिसंपत्तियों, प्रदर्शन परीक्षण डेटा और अंतर्निहित डेटासेट तक पहुंच सुनिश्चित करने की आवश्यकता होती है।
विज्ञापनों
इसके अतिरिक्त, नीति में यह भी कहा गया है कि सिस्टम को कृत्रिम बुद्धिमत्ता के उपयोग के मानवीय और पर्यावरणीय प्रभावों के साथ-साथ व्यक्तियों के मानवाधिकारों, विविधता, स्वायत्तता और गोपनीयता का सम्मान करना चाहिए।
आर्टिफिशियल इंटेलिजेंस खरीद में भारतीय सरकार की आवश्यकताएँ
कंप्यूटर इमरजेंसी रिस्पांस टीम (CERT-In), जो इलेक्ट्रॉनिक्स और सूचना प्रौद्योगिकी मंत्रालय (MeitY) के अंतर्गत आती है, ने AI खरीद में शामिल सभी सरकारी, सार्वजनिक क्षेत्र और आवश्यक सेवा संगठनों को आर्टिफिशियल इंटेलिजेंस बिल ऑफ मैटेरियल्स (AIBOM) को अपने अनुबंधों के हिस्से के रूप में शामिल करने का निर्देश दिया है। एआईबीओएम एआई मॉडल के निर्माण, प्रशिक्षण और तैनाती के लिए उपयोग किए जाने वाले घटकों का एक रिकॉर्ड है। इसका उद्देश्य सरकार और उसकी एजेंसियों द्वारा उपयोग की जाने वाली AI प्रणालियों में पारदर्शिता और सुरक्षा में सुधार करना है।
CERT-In के तकनीकी दिशानिर्देशों के अनुसार, सरकार और सार्वजनिक क्षेत्र की संस्थाओं को उत्पाद या सेवाएँ प्रदान करने वाले सभी आपूर्तिकर्ताओं को जब भी कोई भेद्यता दिखाई देती है, तो उन्हें एक Vulnerability Exploitability eXchange (VEX) दस्तावेज़ बनाना होगा। इस VEX दस्तावेज़ में यह निर्दिष्ट होना चाहिए कि कोई दोष संगठन की प्रणाली को कैसे प्रभावित करता है। इसे आदर्श रूप से खरीद इकाई को सुरक्षा खतरों का आकलन करने और प्रतिक्रिया देने के लिए प्रेरित करना चाहिए। जैसा कि ऊपर उल्लेख किया गया है, आवश्यकता का उद्देश्य अधिक सुरक्षित एआई वातावरण बनाने के लिए विक्रेताओं और सरकारी ग्राहकों के बीच जवाबदेही को मजबूत करना और संचार को सुव्यवस्थित करना है।
CERT-In आगे सलाह देता है कि AI डेवलपर्स को अपने AIBOM को भी डेटा के साथ एकीकृत करना चाहिए, जिसमें भेद्यता डेटासेट, CERT-In के स्वयं के भेद्यता नोट्स, खतरे की खुफिया प्लेटफ़ॉर्म और विक्रेता-विशिष्ट सलाह शामिल हैं।
यह भी पढ़ें:
हमारी पत्रकारिता का समर्थन करें: