द न्यूयॉर्क टाइम्स की रिपोर्ट के अनुसार, एआई प्रशिक्षण कंपनी स्केल एआई के साथ सहयोग करते हुए, Google का डीपमाइंड इस नए एआई चैटबॉट का कठोरता से मूल्यांकन कर रहा है। सहायक की क्षमताओं का व्यापक मूल्यांकन करने के लिए विभिन्न क्षेत्रों में डॉक्टरेट की डिग्री रखने वाले 100 से अधिक विशेषज्ञों को लगाया गया है।
इन मूल्यांकनकर्ताओं ने उपयोगकर्ताओं के सामने आने वाली वास्तविक जीवन की चुनौतियों से संबंधित गहन व्यक्तिगत प्रश्नों को विचारपूर्वक संबोधित करने में उपकरण की क्षमता का आकलन करने में खुद को डुबो दिया है।
एक उदाहरणात्मक उदाहरण में एक उपयोगकर्ता शामिल है जो अपने करीबी दोस्त की गंतव्य शादी में उपस्थिति का खर्च उठाने में असमर्थता के बारे में बताने के लिए मार्गदर्शन मांग रहा है। एआई सहायक वर्णित पारस्परिक परिदृश्य की जटिलताओं को ध्यान में रखते हुए अनुरूप सलाह और सिफारिशें प्रदान करता है।
जीवन सलाह के दायरे से परे जाकर, Google के AI टूल का लक्ष्य उपयोगकर्ताओं को विशेष चिकित्सा अंतर्दृष्टि से लेकर शौक सुझावों तक 21 विशिष्ट जीवन कौशल में सहायता करना है। विशेष रूप से, यह टूल अनुकूलित वित्तीय बजट भी उत्पन्न कर सकता है।
हालाँकि, Google के AI सुरक्षा विशेषज्ञों ने महत्वपूर्ण जीवन निर्णयों के लिए AI पर अत्यधिक निर्भर होने की संभावित कमियों के बारे में चिंता व्यक्त की है। एआई पर अत्यधिक निर्भरता संभवतः उपयोगकर्ता की भलाई और एजेंसी को कम कर सकती है।
इसके विपरीत, मार्च में Google द्वारा AI चैटबॉट बार्ड की शुरूआत में प्रतिबंध शामिल थे, जो इसे चिकित्सा, वित्तीय या कानूनी सलाह देने से रोकते थे। इसके बजाय, बार्ड ने मानसिक स्वास्थ्य संसाधनों की पेशकश पर ध्यान केंद्रित किया।
Google DeepMind के प्रवक्ता ने स्पष्ट किया कि गोपनीय परीक्षण सुरक्षित और लाभकारी AI तकनीक विकसित करने के लिए मानक प्रक्रियाओं के अनुरूप है। प्रवक्ता ने इस बात पर जोर दिया कि ये पृथक परीक्षण नमूने निश्चित उत्पाद रोडमैप का प्रतिनिधित्व नहीं करते हैं।
जबकि Google सावधानी से काम कर रहा है, AI क्षमताओं के विस्तार के लिए जनता का बढ़ता उत्साह डेवलपर्स को प्रोत्साहित करता है। चैटजीपीटी और अन्य प्राकृतिक भाषा प्रसंस्करण उपकरणों की उल्लेखनीय सफलता वर्तमान प्रौद्योगिकी की बाधाओं के भीतर भी एआई जीवन सलाह की मांग को रेखांकित करती है।
विशेषज्ञों ने एआई चैटबॉट्स की सीमाओं पर प्रकाश डाला है, जिसमें झूठ को समझने या सूक्ष्म भावनात्मक संकेतों की व्याख्या करने में असमर्थता शामिल है, जैसा कि पहले डिक्रिप्ट द्वारा रिपोर्ट किया गया था। फिर भी, एआई पूर्वाग्रह या गलत निदान जैसे सामान्य नुकसान से बचाता है, जिसका चिकित्सकों को सामना करना पड़ सकता है। मनोचिकित्सक रॉबी लुडविग ने टिप्पणी की कि एआई विशिष्ट आबादी के साथ प्रभावी हो सकता है, हालांकि इसमें मनुष्यों द्वारा खोजे जाने वाले भावनात्मक संबंध की क्षमता का अभाव है।
आबादी के अलग-थलग और कमजोर वर्गों के लिए, अकेलेपन और समर्थन की कमी को सहन करने के लिए एक अपूर्ण एआई साथी बेहतर हो सकता है। हालाँकि, यह विकल्प अपने स्वयं के जोखिम प्रस्तुत करता है, जैसा कि बेल्जियम स्थित समाचार आउटलेट ला लिब्रे द्वारा रिपोर्ट की गई एक दुखद घटना से प्रदर्शित होता है।
जैसे-जैसे एआई की निरंतर प्रगति जारी है, महत्वपूर्ण सामाजिक प्रश्न अनुत्तरित बने हुए हैं। उपयोगकर्ता की स्वायत्तता और भलाई को संतुलित करना एक चुनौती है, जैसा कि Google जैसे व्यक्तिगत डेटा निगमों के पास कितनी होनी चाहिए, यह निर्धारित करना भी एक चुनौती है। इस अन्वेषण के बीच, एआई मानव-प्रदत्त सेवाओं को बदलने के बजाय उन्हें बढ़ाने के लिए तैयार है। हालाँकि, AI की अंतिम क्षमताओं की सीमाएँ अनिश्चितता में डूबी हुई हैं।
नवीनतम अपडेट और समाचार के लिए अनुसरण करें ब्लिट्ज़ हिंदी गूगल न्यूज़ पर , ब्लिट्ज़ यूट्यूब पर, ब्लिट्ज़ फेसबुक पर, और ब्लिट्ज़ ट्विटर पर.
(टैग्सटूट्रांसलेट)एआई(टी)आर्टिफिशियल इंटेलिजेंस(टी)बार्ड(टी)चैटजीपीटी(टी)गूगल(टी)गूगल डीपमाइंड(टी)ला लिब्रे(टी)स्केल एआई