सोशल मीडिया प्लेटफॉर्म एक्स (पूर्व में ट्विटर) से जुड़ी आर्टिफिशियल इंटेलिजेंस सेवा Grok को लेकर हाल के दिनों में बड़ा विवाद सामने आया था। आरोप लगे थे कि Grok के जरिए यूजर्स अश्लील और आपत्तिजनक तस्वीरें जनरेट कर पा रहे हैं। अब इस पूरे मामले पर एक्स ने अपनी गलती स्वीकार करते हुए दावा किया है कि Grok पर ऐसे कंटेंट को पूरी तरह से ब्लॉक कर दिया गया है और भविष्य में AI से अश्लील तस्वीरें नहीं बनेंगी।
दरअसल, कुछ यूजर्स ने सोशल मीडिया पर यह दावा किया था कि Grok के इमेज जनरेशन फीचर का इस्तेमाल करके नियमों के खिलाफ तस्वीरें बनाई जा रही हैं। इन पोस्ट्स के वायरल होने के बाद एक्स और उसकी AI टीम पर सवाल खड़े होने लगे। आलोचकों का कहना था कि अगर AI प्लेटफॉर्म पर सख्त कंटेंट फिल्टर नहीं होंगे, तो इसका दुरुपयोग तेजी से बढ़ सकता है।
मामले के तूल पकड़ने के बाद एक्स की ओर से आधिकारिक बयान जारी किया गया। कंपनी ने माना कि शुरुआती चरण में Grok के कंटेंट मॉडरेशन सिस्टम में खामियां थीं, जिनकी वजह से कुछ आपत्तिजनक तस्वीरें जनरेट हो सकीं। हालांकि, एक्स ने यह भी स्पष्ट किया कि यह जानबूझकर नहीं किया गया था, बल्कि तकनीकी चूक के कारण ऐसा हुआ।
एक्स के अनुसार, अब Grok के AI मॉडल में कई स्तरों पर सुधार किए गए हैं। नए सेफ्टी फिल्टर जोड़े गए हैं, जो न केवल टेक्स्ट बल्कि इमेज जनरेशन को भी सख्ती से मॉनिटर करेंगे। कंपनी का दावा है कि अब अगर कोई यूजर अश्लील या नियमों के खिलाफ कंटेंट बनाने की कोशिश करेगा, तो सिस्टम अपने आप उसे ब्लॉक कर देगा।
AI और टेक्नोलॉजी विशेषज्ञों का मानना है कि यह मामला एक बार फिर इस बात को उजागर करता है कि जनरेटिव AI के साथ जिम्मेदारी कितनी जरूरी है। AI टूल्स जितने ताकतवर हो रहे हैं, उतना ही उनका दुरुपयोग होने का खतरा भी बढ़ रहा है। ऐसे में प्लेटफॉर्म्स की जिम्मेदारी बनती है कि वे पहले से ही मजबूत सुरक्षा उपाय लागू करें।
वहीं, कुछ यूजर्स का कहना है कि एक्स को यह कदम पहले ही उठा लेना चाहिए था। उनका मानना है कि विवाद सामने आने के बाद सुधार करना काफी नहीं है, बल्कि पारदर्शिता और लगातार निगरानी भी जरूरी है। इसके अलावा, डेटा प्राइवेसी और यूजर सेफ्टी को लेकर भी सवाल उठाए जा रहे हैं।

