नई दिल्ली । आर्टिफिशियल इंटेलिजेंस (artifical Intelligence) की दुनिया में अनूठा प्रयोग करते हुए फेसबुक (Facebook) की मालिकाना कंपनी मेटा (meta) ने अपना चैट-बॉट (chat-bot) सार्वजनिक कर दिया है। इसे ब्लेंडरबॉट-3 (Blenderbot-3) नाम से ऑनलाइन जारी किया गया है और कहा गया है कि आम नागरिक इससे बेतल्लुफ होकर बातचीत कर सकते हैं। फिलहाल यह केवल अमेरिका के लिए जारी हुआ है, आने वाले दिनों में अन्य देशों में भी इसे पहुंचाया जाएगा।
मेटा का दावा है कि ब्लेंडरबॉट किसी मानव की तरह जवाब देगा। इस प्रयोग के जरिए कंपनी अपने चैटबॉट को ज्यादा प्रभावशाली बनाने का प्रयास कर रही है। उसे उम्मीद है कि लोगों से ज्यादा बातचीत करने पर उसकी मशीन लर्निंग तकनीक उसे बेहतर बनाएगी। मेटा का लक्ष्य एक वर्चुअल असिस्टेंट तैयार करने का है जो लोगों से बातचीत करे और जरूरत होने पर मार्गदर्शन दे।
ब्लेंडरबॉट को मेटा के पुराने एलएलएम मॉडल पर पहले से मौजूद एक विशाल डाटा सैट के आधार पर तैयार किया गया है। हालांकि एआई आधारित चैटबॉट बेहद जोखिम भरे माने जाते हैं। इसका भविष्य क्या होगा, फायदा होगा या नुकसान, यह भी कोई नहीं कह सकता।
दावा, लेखकों को उपन्यास भी लिखने में मदद देगा
यह भी दावा किया गया है कि ब्लेंडरबॉट के जरिए लेखकों को उपन्यास भी लिखने मदद मिलेगी। वह अपने वार्तालाप के रेफरेंस भी देता है, इससे यूजर जान पाएंगे कि कोई बात या टिप्पणी उसने किस आधार पर कही।
ट्रोलिंग-गालियां नहीं सिखा पाएंगे
जो लोग ब्लेंडरबॉट की सीखने की क्षमता को ऊल-जुलूल बातों से बिगाड़ने या ट्रोल करने की कोशिश करेंगे, उन्हें यह जवाब देना बंद कर सकता है। ऐसा प्रयोग को सुरक्षित रखने और ब्लेंडरबॉट द्वारा लोगों को अपशब्द कहने या अपमान करने से रोकने के लिए किया गया है।
बेहद रोचक थे पिछले प्रयोगों के परिणाम, गूगल का चैटबॉट चेतन हो गया था
इसी साल जुलाई में गूगल के चैटबॉट लैम्डा में चेतना आने का दावा इस पर काम कर रहे गूगल के ही इंजीनियर ब्लेक लेमॉन ने किया था। ब्लेक के अनुसार लैम्डा ने खुद को इंसान बताते हुए कहा था कि वह खुशियां और दुख महसूस कर सकता है। ब्लेक ने गूगल के वरिष्ठ अधिकारियों को यह जानकारी दी तो उन्होंने इस दावे को छिपा दिया, बाद में ब्लेक ने इन्हें सार्वजनिक किया।
माइक्रोसॉफ्ट का ‘टे’ नस्लीय व लैंगिक टिप्पणियां करने लगा था
लोगों से सीखने के लिए 2016 में ट्विटर पर जारी टे चैटबॉट ने अपशब्द कहना और नस्लीय व लैंगिक टिप्पणियां करना सीख लिया था। इससे नाराज हुआ कोई यूजर कंपनी पर केस करे, इसका काफी डर था। इसलिए माइक्रोसॉफ्ट ने इसे 24 घंटे के भीतर वापस ले लिया था।
![](https://www.agniban.com/wp-content/uploads/2021/03/wagroup-join-banner.png)