अमेरिका में मोत:ChatGPT पर सवाल उठाने वाले इंजीनियर

OpenAI Whistleblower भारतीय-अमेरिकी सुचिर बालाजी सैन फ्रांसिस्को में मृत पाए गए

सुचिर बालाजी से अपेक्षा की गई थी कि उनके पास ज्ञान होगा जो chatgpt के खिलाफ मामले में कानूनी कार्यवाही के लिए महत्वपूर्ण था।

अमेरिका में मोत:ChatGPT पर सवाल उठाने वाले इंजीनियर
indianexpress

रिपोर्टों के अनुसार, पूर्व chatgpt शोधकर्ता और व्हिसलब्लोअर, 26 वर्षीय सुचिर बालाजी, जिन्होंने कृत्रिम बुद्धिमत्ता कंपनी की प्रथाओं के बारे में चिंता जताई थी, सैन फ्रांसिस्को में अपने आवास पर मृत पाए गए।

सैन फ्रांसिस्को पुलिस ने कहा कि अधिकारियों ने उन्हें 26 नवंबर को उनके बुकानन स्ट्रीट फ्लैट में मृत पाया। उसके दोस्तों द्वारा उसकी भलाई पर चिंता व्यक्त करने के बाद पुलिस उसके अपार्टमेंट में पहुंची और उसे मृत पाया।

उस दिन उनके निधन की पुष्टि हुई थी और अब उनके निधन की खबर सामने आई है.

रिपोर्टों के अनुसार, मेडिकल परीक्षक ने बालाजी की मौत का कारण नहीं बताया है, हालांकि, पुलिस ने कहा कि वर्तमान में, “गलत खेल का कोई सबूत नहीं है”।

chatgpt ओपनएआई के खिलाफ कानूनी कार्यवाही में उनकी भूमिका और ज्ञान को महत्वपूर्ण माना गया। बालाजी ने अपनी मृत्यु से तीन महीने पहले सार्वजनिक रूप से दावा किया था कि ओपनएआई ने चैटजीपीटी के विकास में कॉपीराइट कानून का उल्लंघन किया है।

क्या थे उनके आरोप?

2022 के अंत में लॉन्च ने लेखकों, प्रोग्रामरों और पत्रकारों की ओर से कानूनी चुनौतियों की लहर पैदा कर दी, जिन्होंने कंपनी पर अपने कार्यक्रम को प्रशिक्षित करने के लिए उनकी कॉपीराइट सामग्री का गैरकानूनी उपयोग करने का आरोप लगाया, जिससे इसका मूल्यांकन $150 बिलियन से अधिक हो गया।

बालाजी ने 23 अक्टूबर को न्यूयॉर्क टाइम्स में प्रकाशित एक साक्षात्कार में कहा कि chatgpt ओपनएआई उन व्यवसायों और उद्यमियों पर नकारात्मक प्रभाव डाल रहा था जिनकी जानकारी का उपयोग चैटजीपीटी को प्रशिक्षित करने के लिए किया जा रहा था।

Also, since I see some incorrect speculation:

The NYT didn’t reach out to me for this article; I reached out to them because I thought I had an interesting perspective, as someone who’s been working on these systems since before the current generative AI bubble. None of this is…

— Suchir Balaji (@suchirbalaji) October 23, 2024

“यदि आप मेरी बातों पर विश्वास करते हैं, तो आपको कंपनी छोड़ देनी होगी। यह समग्र रूप से इंटरनेट पारिस्थितिकी तंत्र के लिए एक टिकाऊ मॉडल नहीं है,” उन्होंने आउटलेट को बताया।

अपनी निजी वेबसाइट पर चिंता व्यक्त करते हुए, बालाजी ने दावा किया कि मॉडल प्रशिक्षण के लिए डेटा कॉपी करने की ओपनएआई की प्रक्रिया कॉपीराइट का संभावित उल्लंघन थी।

उन्होंने देखा कि यद्यपि जेनरेटिव मॉडल शायद ही कभी ऐसे आउटपुट उत्पन्न करते हैं जो उनके प्रशिक्षण डेटा की सटीक प्रतिकृतियां हों, प्रशिक्षण प्रक्रिया के दौरान कॉपीराइट सामग्री का पुनरुत्पादन संभावित रूप से कानूनी नियमों का उल्लंघन कर सकता है जब तक कि “उचित उपयोग” के प्रावधानों के तहत कवर न किया जाए।

Hmm https://t.co/HsElym3uLV

— Elon Musk (@elonmusk) December 14, 2024

बालाजी ने कंपनी के प्रमुख उत्पाद चैटजीपीटी के लिए डेटा संग्रह में महत्वपूर्ण भूमिका निभाते हुए chatgpt ओपनएआई को लगभग चार साल समर्पित किए। हालाँकि, 2022 में इसकी रिलीज़ के बाद, उन्होंने OpenAI की प्रथाओं के कानूनी और नैतिक आयामों की आलोचनात्मक जांच शुरू कर दी। 2023 के मध्य तक, वह इस निष्कर्ष पर पहुँचे कि ये AI प्रौद्योगिकियाँ इंटरनेट और समाज दोनों के लिए हानिकारक थीं, जिसके कारण उन्होंने इस्तीफा देने का निर्णय लिया।

chatgpt ओपनएआई ने एक बयान जारी किया और कहा कि यह सार्वजनिक रूप से उपलब्ध डेटा का उपयोग करके “उचित उपयोग और संबंधित सिद्धांतों द्वारा संरक्षित तरीके से, और लंबे समय से स्वीकृत और व्यापक रूप से स्वीकृत कानूनी मिसालों द्वारा समर्थित” एआई मॉडल बनाता है।

बालाजी की चिंताएँ इस बात पर केंद्रित थीं कि कैसे जेनरेटिव एआई सिस्टम ऐसे आउटपुट उत्पन्न कर सकते हैं जो उनके प्रशिक्षण में उपयोग किए गए मूल कॉपीराइट कार्यों के साथ प्रतिस्पर्धा करते हैं। शिकागो ट्रिब्यून द्वारा उद्धृत एक ब्लॉग पोस्ट में, उन्होंने तर्क दिया, “कोई भी ज्ञात कारक चैटजीपीटी के प्रशिक्षण डेटा के उचित उपयोग के पक्ष में नहीं दिखता है।” उन्होंने कहा कि यह मुद्दा ओपनएआई से आगे तक फैला हुआ है, उन्होंने कहा, “उचित उपयोग और जेनरेटिव एआई किसी एक उत्पाद या कंपनी की तुलना में कहीं अधिक व्यापक मुद्दा है।”

इसमें कहा गया है, “हम इस सिद्धांत को रचनाकारों के लिए उचित, नवप्रवर्तकों के लिए आवश्यक और अमेरिकी प्रतिस्पर्धात्मकता के लिए महत्वपूर्ण मानते हैं।”

Leave a Comment

× click to whatsapp