खेल जगत

यूके के एआई सुरक्षा शिखर सम्मेलन और अमेरिकी कार्यकारी आदेश ने एआई विनियमन के युग की शुरुआत की

यह वह सप्ताह है जहां वैश्विक स्तर पर सरकारों ने क्षमताओं, जोखिमों, स्थिरता और आत्मविश्वास के साथ-साथ एआई उत्पन्न सामग्री पर सूचना वॉटरमार्क के मानकीकरण सहित व्यापक कृत्रिम बुद्धिमत्ता (एआई) परिदृश्य के बारे में बातचीत को आगे बढ़ाया है। अमेरिकी राष्ट्रपति जो बिडेन द्वारा एक कार्यकारी आदेश पर हस्ताक्षर करने, यूके एआई सुरक्षा शिखर सम्मेलन में बैलेचली घोषणा और एआई कंपनियों के लिए आचार संहिता पर जी7 समझौते के बीच, एआई विनियमन की दिशा में पहला निश्चित कदम उठाया गया है। एआई कंपनियाँ इस प्रक्रिया में इच्छुक भागीदार लगती हैं, कम से कम अभी के लिए।

केवल प्रतिनिधित्वात्मक उद्देश्यों के लिए। (गेटी इमेजेज/आईस्टॉकफोटो)

विनियमों पर जोर देने और गुणवत्ता पर नियंत्रण रखने की आवश्यकता थी। ऐसे समय में जब सामान्य प्रयोजन एआई मॉडल (जिन्हें फ्रंटियर एआई कहा जाता है) की क्षमताएं आज के सबसे उन्नत एआई मॉडल से कहीं अधिक हो रही हैं जो कर सकते हैं और जो नहीं कर सकते हैं। जबकि अधिक विशिष्ट AI मॉडल भी व्यापक टूल अपना रहे हैं। सुरक्षा और सटीकता के लिए एआई सिस्टम का परीक्षण कैसे किया जाता है, इस पर नजर रखने के लिए दिशानिर्देशों को एक साथ जोड़ा जा रहा है, जबकि एआई सिस्टम के लिए प्रशिक्षण डेटा के साथ उपयोगकर्ता डेटा गोपनीयता को नजरअंदाज नहीं किया जाता है।

सुरक्षित एआई नेतृत्व के लिए यूके की वकालत

यूके का एआई सेफ्टी इंस्टीट्यूट विश्व स्तर पर अपनी तरह का पहला संस्थान है, जो एआई मॉडल के जारी होने से पहले और उसके बाद उनके जोखिमों का मूल्यांकन करेगा। संस्थान को अन्य देशों के साथ-साथ ओपनएआई और डीपमाइंड सहित प्रमुख एआई कंपनियों का समर्थन प्राप्त है। वैश्विक सरकारी सहयोग कुछ ऐसा था जिसकी ब्रिटेन के प्रधान मंत्री ऋषि सनक ने इस साल की शुरुआत में वकालत की थी। इस गर्मी में लंदन टेक वीक में, उन्होंने बताया कि कैसे एआई पारंपरिक राष्ट्रीय सीमाओं का सम्मान नहीं करता है, जिसके लिए राष्ट्रों और प्रयोगशालाओं के बीच वैश्विक सहयोग की आवश्यकता होती है।

“मेरा मानना ​​है कि इस शिखर सम्मेलन की उपलब्धियाँ मानवता के पक्ष में संतुलन बनाएंगी। क्योंकि वे दिखाते हैं कि हमारे पास इस तकनीक को नियंत्रित करने और लंबी अवधि के लिए इसके लाभों को सुरक्षित करने की राजनीतिक इच्छाशक्ति और क्षमता दोनों है, ”एआई सुरक्षा शिखर सम्मेलन में सुनक ने कहा।

यह डेटा विज्ञान और एआई के लिए ब्रिटेन के राष्ट्रीय संस्थान, एलन ट्यूरिंग इंस्टीट्यूट के साथ एक सहयोगात्मक प्रयास होगा, जिसमें पूर्वाग्रह और गलत सूचना या यहां तक ​​कि मनुष्यों द्वारा एआई सिस्टम पर पूरी तरह से नियंत्रण खोने के जोखिम को भी शामिल किया जाएगा। कुछ साल पहले तक जो विज्ञान-फाई फिल्मों के लिए आरक्षित था, वह अब एक प्रशंसनीय परिदृश्य है। एआई सेफ्टी इंस्टीट्यूट के अध्यक्ष इयान हॉगर्थ कहते हैं, “अंतर्राष्ट्रीय सरकारों और कंपनियों का समर्थन एआई सुरक्षा को आगे बढ़ाने और इसके जिम्मेदार विकास को सुनिश्चित करने के लिए हमारे द्वारा किए जा रहे काम का एक महत्वपूर्ण सत्यापन है।”

एआई सुरक्षा शिखर सम्मेलन के अंत को चिह्नित करते हुए और ब्रिटेन, भारत, अमेरिका, चीन, यूरोपीय संघ, फ्रांस, जर्मनी, कनाडा, इज़राइल, सऊदी अरब, यूक्रेन, स्पेन और सिंगापुर सहित 29 देशों द्वारा हस्ताक्षरित बैलेचले घोषणापत्र में अवसरों के बारे में विशेष रूप से बात की गई है। और एआई से जोखिम। चिंता यह है कि जैसे-जैसे एआई मॉडल तीव्र गति से विकसित हो रहे हैं, जोखिम उभर सकते हैं जिनका पहले से अनुमान लगाना या भविष्यवाणी करना मुश्किल होगा क्योंकि क्षमताओं को पहले से नहीं समझा जा सकता है।

“एआई की ‘सीमा’ पर विशेष सुरक्षा जोखिम उत्पन्न होते हैं, जिसे उन अत्यधिक सक्षम सामान्य-उद्देश्य वाले एआई मॉडल के रूप में समझा जाता है, जिसमें फाउंडेशन मॉडल भी शामिल हैं, जो विभिन्न प्रकार के कार्य कर सकते हैं – साथ ही प्रासंगिक विशिष्ट संकीर्ण एआई जो क्षमताओं को प्रदर्शित कर सकते हैं नुकसान पहुंचाते हैं – जो आज के सबसे उन्नत मॉडलों में मौजूद क्षमताओं से मेल खाते हैं या उससे अधिक हैं,” घोषणा वक्तव्य में कहा गया है।

यदि विकास, परीक्षण और परिणाम अनियंत्रित रहते हैं, तो बड़े पैमाने पर समाज के साथ एआई के सिस्टम के इरादे के गलत संरेखण का संभावित जोखिम है, जिसमें साइबर सुरक्षा और जैव प्रौद्योगिकी सहित डोमेन खतरे में हैं।

शिखर सम्मेलन से पहले, एंथ्रोपिक, अमेज़ॅन, डीपमाइंड, मेटा, माइक्रोसॉफ्ट और ओपनएआई सहित एआई कंपनियों ने पहली बार अपनी सुरक्षा नीतियां प्रकाशित कीं। यह पारदर्शिता, शायद कंपनियां क्या करती हैं और वैश्विक नियम उनसे क्या कराना चाहते हैं, के बीच अंतर को समझने में मददगार है।

अमेरिका ने एआई नियमन पर काम शुरू किया

जब अमेरिकी राष्ट्रपति जो बिडेन ने मंगलवार को लंबे समय से वादा किए गए ‘सुरक्षित, सुरक्षित और भरोसेमंद विकास और आर्टिफिशियल इंटेलिजेंस के उपयोग पर कार्यकारी आदेश’ पर हस्ताक्षर किए, तो यह स्पष्ट था कि एआई विकास में एक नया अध्याय चल रहा था। एआई कंपनियों को अब उन मॉडलों को व्यावसायिक उपयोग के लिए जारी करने से पहले सरकार के साथ सुरक्षा परीक्षण परिणाम साझा करना आवश्यक है।

ऐसे सुरक्षा मानक भी होंगे जिनका पालन और सत्यापन किया जाना आवश्यक है, विशेष रूप से स्वास्थ्य सेवा और शिक्षा जैसे कार्यान्वयन का सामना करने वाले समाज में एआई के उपयोग के लिए।

एक काल्पनिक उदाहरण की मदद से पीढ़ीगत सुधार पहलू को सरल बनाते हुए, OpenAI को उद्यमों, उपभोक्ताओं और Microsoft (उनके बिंग चैटबॉट के लिए) द्वारा उपयोग के लिए GPT-5.0 जारी करने से पहले, इन परीक्षण परिणामों को संघीय एजेंसियों के साथ साझा करने की आवश्यकता होगी। यह प्रक्रिया, सुधारों और क्षमताओं में महत्वपूर्ण उछाल के कारण आवश्यक हो गई है, जिसे एआई मॉडल का प्रत्येक विकास संभावित रूप से एकीकृत करता है। चाहे वह चैटबॉट हों, इमेज जेनरेटर हों या बड़े एआई मॉडल हों।

मामले में, एक नया एआई सिस्टम जो ओपनएआई के जीपीटी मॉडल की तुलना में समान कार्यों में बेहतर माना जाता है। न्यूयॉर्क विश्वविद्यालय के ब्रेंडन एम. लेक और कैटलन इंस्टीट्यूशन फॉर रिसर्च एंड एडवांस्ड स्टडीज (आईसीआरईए) के मार्को बारोनी ने अक्टूबर में शोध प्रकाशित किया, जो एक एआई प्रणाली के बारे में बात करता है जो मशीनों को मनुष्यों के साथ संवाद करने की अनुमति देता है, अधिकांश वर्तमान की तुलना में मनुष्यों की तरह। एआई सिस्टम प्रबंधन कर सकते हैं।

अमेरिका के एआई दिशानिर्देशों ने एआई-जनित दृश्य सामग्री के लिए डिजिटल वॉटरमार्किंग को भी मानकीकृत किया है। कुछ एआई कंपनियां पहले से ही एआई उत्पन्न सामग्री के साथ निर्माता और मालिक की जानकारी को शामिल कर रही हैं। पिछले महीने ही, Adobe ने Firefly नामक अपने मॉडल से प्रत्येक AI उत्पन्न छवि के लिए कंटेंट क्रेडेंशियल “पोषण लेबल” की घोषणा की थी। विवरण में निर्माता का नाम, तिथि और किए गए संपादन शामिल होंगे।

“रोमांचक समाचार! हिंदुस्तान टाइम्स अब व्हाट्सएप चैनल पर है लिंक पर क्लिक करके आज ही सदस्यता लें और नवीनतम समाचारों से अपडेट रहें!” यहाँ क्लिक करें!

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button