कृत्रिम बुद्धिमता प्रणालियों से निजता के लिये जोखिम - तत्काल कार्रवाई की मांग

संयुक्त राष्ट्र मानवाधिकार उच्चायुक्त मिशेल बाशेलेट ने कृत्रिम बुद्धिमता (आर्टिफ़िशियल इंटैलीजेंस / एआई) की उन प्रणालियों की बिक्री व इस्तेमाल पर स्वैच्छिक रोक लगाए जाने का आग्रह किया है, जिनसे मानवाधिकारों के लिये गम्भीर जोखिम पैदा हो सकते हैं.

यूएन एजेंसी की प्रमुख ने बुधवार को अपने एक वक्तव्य में कहा कि स्वैच्छिक रोक को तब तक जारी रखना होगा जब तक पर्याप्त ऐहतियाती उपायों लागू नहीं किये जाते हैं.  

“आर्टिफ़िशियल इंटैलीजेंस, बेहतरी के लिये एक ताक़त हो सकती है, जिससे इस दौर की विशाल चुनौतियों पर कामयाबी हासिल करने में समाजों को मदद मिले.”

“मगर, उनके इस्तेमाल से मानवाधिकारों पर होने वाले असर पर पर्याप्त ध्यान दिये बिना, एआई टैक्नॉलॉजी के नकारात्मक, यहाँ तक की विनाशनकारी प्रभाव भी हो सकते हैं.” 

उन्होंने स्पष्ट किया कि एआई की जिन ऐप्लीकेशन्स को अन्तरराष्ट्रीय मानवाधिकार क़ानूनों के तहत इस्तेमाल नहीं किया जा सकता, उन पर पाबन्दी लगा दी जानी चाहिये.   

नई रिपोर्ट

यूएन मानवाधिकार उच्चायुक्त कार्यालय ने टैक्नॉलॉजी और मानवाधिकारों से जुड़े मुद्दों पर एक नई रिपोर्ट प्रकाशित की है. 

मानवाधिकार उच्चायुक्त के मुताबिकड, मानवाधिकारों के लिये जोखिम जितना बड़ा हो, एआई टैक्नॉलॉजी के इस्तेमाल के लिये क़ानूनी आवश्यकताएँ भी उतनी ही सख़्त होनी चाहियें. 

“जोखिमों की समीक्षा करने और उनसे निपटने में चूँकि समय लग सकता है, इसलिये, देशों की सरकारों को सम्भावित उच्च जोखिम वाली टैक्नॉलॉजी पर स्वैच्छिक रोक लगानी चाहिये.”

रिपोर्ट में एआई टैक्नॉलॉजी के ज़रिये व्यक्तिगत जानकारी की रूपरेखा तैयार करने, स्वचालित निर्णय-निर्धारण और मशीन-लर्निंग सहित अन्य प्रणालियों के इस्तेमाल से, लोगों की निजता व अन्य अधिकारों के हनन पर होने वाले असर का विश्लेषण किया गया है.

इन अधिकारों में स्वास्थ्य, शिक्षा, आवाजाही की आज़ादी, शान्तिपूर्ण सभा व अभिव्यक्ति की आज़ादी समेत अन्य मानवाधिकार हैं. 

रिपोर्ट बताती है कि सदस्य देशों और व्यवसायों ने एआई ऐप के इस्तेमाल में जल्दबाज़ी दिखाई है और इसके लिये पहले ज़रूरी सावधानियों नहीं बरती गई हैं.

मानवाधिकारों पर असर

रिपोर्ट में ऐसे अनेक मामलों का हवाला दिया गया है, जिनमें लोगों के साथ अन्यायपूर्ण ढंग से बर्ताव किया गया. 

एआई के दोषपूर्ण औज़ारों के कारण, उन्हें सामाजिक संरक्षा के तहत मिलने वाले लाभों के दायरे से बाहर कर दिया गया. या फिर चेहरे की शिनाख़्त करने वाली टैक्नॉलॉजी के ग़लत इस्तेमाल से, उन्हें गिरफ़्तार कर लिया गया.  

मानवाधिकार मामलों की प्रमुख ने सचेत किया कि कृत्रिम बुद्धिमता पर आधारित प्रणालियाँ, जीवन के लगभग हर पहलू से जुड़ी हुई हैं.

इनका इस्तेमाल सार्वजनिक सेवाओं के लाभार्थियों की शिनाख़्त करने, रोज़गार के लिये चिन्हित किये जाने सहित, अन्य प्रक्रियाओं में किया जाता है.

रिपोर्ट में विस्तार से बताया गया है कि एआई प्रणालियाँ, विशाल डेटा सैट पर निर्भर हैं, और व्यक्तियों से जुड़ी जानकारियों को अनेक प्रकार से एकत्र, साझा, और उनका संयोजन व विश्लेषण किया जाता है. इस प्रक्रिया में अक्सर पारदर्शिता का अभाव होता है.

रिपोर्ट में आगाह किया गया है कि एआई प्रणालियों को निर्देशित करने के लिये इस्तेमाल किया जाने वाला डेटा, दोषपूर्ण, भेदभावपूर्ण, चलन से बाहर या अप्रासंगिक हो सकता है.

डेटा को लम्बे समय तक रखे जाने में भी जोखिम निहित हैं, चूँकि भविष्य में उसका ऐसे रूपों में इस्तेमाल किया जा सकता है, जिनके बारे में फ़िलहाल ज़्यादा जानकारी नहीं है.

जवाबदेही पर ज़ोर

इन चिन्ताओं के मद्देनज़र और एआई प्रणालियों के बढ़ते इस्तेमाल की पृष्ठभूमि में आँकड़ों व जानकारी को एकत्र, संग्रहित, साझा और इस्तेमाल करने में जवाबदेही सुनिश्चित किये जाने पर ज़ोर दिया गया है. 

मानवाधिकार उच्चायुक्त ने कहा कि राज्यसत्ता, अन्तरराष्ट्रीय संगठनों व टैक्नॉलॉजी कम्पनियों के लिये बायोमैट्रिक टैक्नॉलॉजी, एक बड़े समाधान के रूप में उभर रही हैं. 

उन्होंने आगाह किया कि यह एक ऐसा मामला है जहाँ मानवाधिकार आधारित मार्गदर्शन की कहीं अधिक आवश्यकता है.

इन टैक्नॉलॉजी में चेहरे की शिनाख़्त करने वाला सॉफ्टवेयर भी है, जिनका इस्तेमाल वास्तविक समय में, लोगों की पहचान करने और उनकी असीमित स्तर पर निगरानी किये जाने में किया जाता है. 

रिपोर्ट में सार्वजनिक स्थलों पर इन टैक्नॉलॉजी के इस्तेमाल पर स्वैच्छिक रोक लगाने का आहवान किया गया है, विशेष रूप से जब तक उनकी सटीकता और भेदभावपूर्ण असर से जुड़ा कोई मुद्दा ना हो. 

साथ ही यह सुनिश्चित किया जाना होगा कि एआई प्रणालियों को, ठोस निजता व डेटा संरक्षण मानकों का अनुपालन करना होगा.

Share this story