२०२५ मा, प्रविधिको द्रुत विकास र अपनाउने प्रक्रियालाई बुझ्न संघर्ष गर्दा मानिसहरूमा एआईबारे गलत धारणाहरू फैलियो। नयाँ वर्षमा छोड्नुपर्ने तीनवटा लोकप्रिय गलत धारणाहरू यहाँ छन्।
एआई मोडेलहरू भित्तामा ठोक्किएका छन्
मे महिनामा जीपीटी–५ रिलिज हुँदा मानिसहरूले (पहिलो पटक होइन) एआईले भित्तामा ठोक्किएको हो कि भनेर आश्चर्य माने । नाममा भएको ठूलो अपग्रेडका बावजुद, सुधार वृद्धिशील मात्र देखिन्थ्यो। द न्यू योर्करले “व्हाट इफ एआई डजन्ट गेट मच बेटर द्यान दिस ?” शीर्षकको लेख छाप्यो, जसमा जीपीटी–५ “ठूला भाषा मोडेलहरूमा प्रगति रोकिएको सुझाव दिने पछिल्लो उत्पादन” भएको दाबी गरियो।
चाँडै नै के थाहा भयो भने नामको यो माइलस्टोनका बावजुद, जीपीटी–५ मुख्य रूपमा कम लागतमा प्रदर्शन प्रदान गर्ने अभ्यास थियो। पाँच महिनापछि, ओपनएआई, गुगल र एन्थ्रोपिकले सबैले आर्थिक रूपमा मूल्यवान कार्यहरूमा ठूलो प्रगति देखाउने मोडेलहरू रिलिज गरेका छन्। “स्केलिङ सकियो भन्ने लोकप्रिय विश्वासको विपरीत,” गुगलको पछिल्लो मोडेलमा प्रदर्शनको उफान “हामीले कहिल्यै देखेको सबैभन्दा ठूलो” भएको गुगल डिपमाइन्डको डिप लर्निङ टिम लिड ओरियोल भिन्याल्सले जेमिनी ३ रिलिज भएपछि लेखे। “कुनै भित्ता देखिएको छैन।”
एआई मोडेलहरू कसरी सुधार हुनेछन् भन्ने बारे आश्चर्य मान्नुको कारण छ। तालिमका लागि डाटा प्राप्त गर्न महँगो हुने क्षेत्रहरूमा—उदाहरणका लागि एआई एजेन्टहरूलाई व्यक्तिगत खरिदकर्ताको रूपमा तैनाथ गर्दा—प्रगति सुस्त हुन सक्छ। “सायद एआई निरन्तर राम्रो हुँदै जान्छ र सायद एआई महत्वपूर्ण तरिकाहरूमा खराब नै रहन्छ,” सेन्टर फर सेक्युरिटी एन्ड इमर्जिङ टेक्नोलोजीकी अन्तरिम कार्यकारी निर्देशक हेलेन टोनरले लेखिन्। तर प्रगति रोकिएको छ भन्ने विचारलाई न्यायोचित ठहराउन गाह्रो छ।
स्वचालित ड्राइभिङ गाडीहरू मानव चालकहरूभन्दा बढी खतरनाक छन्
च्याटबटलाई शक्ति दिने एआईमा खराबी आउँदा, त्यसको मतलब प्रायः कसैले आफ्नो गृहकार्यमा गल्ती गर्छ वा “स्ट्रबेरी” मा “आर” को संख्या गनेर गल्ती गर्छ। स्वचालित गाडीलाई शक्ति दिने एआईमा खराबी आउँदा, मानिसहरू मर्न सक्छन्। नयाँ प्रविधि प्रयास गर्न धेरैले हिचकिचाउनु आश्चर्यको कुरा होइन।
बेलायतमा, २,००० वयस्कहरूको सर्वेक्षणमा केवल २२ प्रतिशत ले चालकरहित गाडीमा यात्रा गर्न सहज महसुस गरेका थिए। अमेरिकामा यो आँकडा १३ प्रतिशत मात्र थियो। अक्टोबरमा, सान फ्रान्सिस्कोमा वेगोले एउटा बिरालो मारेपछि आक्रोश उत्पन्न भयो।
तर वेगोबाट १०० मिलियन चालकरहित माइलहरूको डाटाको विश्लेषण अनुसार, स्वचालित गाडीहरू मानव चालकहरूभन्दा धेरै पटक सुरक्षित साबित भएका छन्। वेगोका गाडीहरूमा चोटपटक निम्त्याउने दुर्घटनाहरू लगभग पाँच गुणा कम र “गम्भीर चोटपटक वा त्योभन्दा खराब” निम्त्याउने दुर्घटनाहरू ११ गुणा कम थिए मानव चालकहरूको तुलनामा।
एआईले नयाँ ज्ञान सिर्जना गर्न सक्दैन
२०१३ मा, गणितज्ञ सेबास्टियन बुबेकले ग्राफ थ्योरी बारेमा एक प्रतिष्ठित जर्नलमा कार्यपत्र प्रकाशित गरे। “हामीले केही खुला प्रश्नहरू छोडेका थियौं, र त्यसपछि मैले प्रिन्सटनमा स्नातक विद्यार्थीहरूसँग तिनीहरुमा काम गरें,” ओपनएआईका अनुसन्धानकर्ता बुबेक भन्छन्। “हामीले अधिकांश खुला प्रश्नहरू समाधान गर्यौं, एउटा बाहेक।” दशकभन्दा बढीपछि, बुबेकले त्यो समस्या जीपीटी–५ माथि निर्मित प्रणालीलाई दिए।
“हामीले यसलाई दुई दिन सोच्न दियौं,” उनी भन्छन्। “त्यहाँ मोडेलले फेला पारेको एउटा चमत्कारीक समानता थियो, र यसले वास्तवमा समस्या समाधान गर्यो।”
आलोचकहरूले ठूला भाषा मोडेलहरू, जस्तै जीपीटी–५, ले कुनै मौलिक कुरा सोच्न सक्दैनन् र तिनले तालिम लिएको जानकारी मात्र दोहोर्याउँछन् भन्ने तर्क गरेका छन्—एलएलएमहरूलाई व्यंग्यात्मक उपनाम “स्टोकास्टिक प्यारट्स” दिइएको छ । जसमा, एप्पलले एउटा कार्यपत्र प्रकाशित गर्यो जसले एलएलएमहरूको कुनै तर्क क्षमता “भ्रम” भएको देखाउने दाबी गर्यो।
निश्चित रूपमा, एलएलएमहरूले आफ्ना प्रतिक्रियाहरू उत्पन्न गर्ने तरिका मानव तर्कभन्दा फरक छ। तिनीहरूले सरल रेखाचित्रहरूको व्याख्या गर्न असफल हुन्छन्, तर पनि शीर्ष गणित र प्रोग्रामिङ प्रतियोगिताहरूमा स्वर्ण पदक जित्छन्, र “स्वायत्त रूपमा” “नयाँ गणितीय निर्माणहरू” पत्ता लगाउँछन्। तर सजिला कार्यहरूमा संघर्ष गर्दा पनि तिनीहरूलाई उपयोगी र जटिल विचारहरू सोच्नबाट रोक्दैन।
“एलएलएमहरूले निश्चित रूपमा कटौती र प्रेरणा चाहिने समस्याहरू समाधान गर्न तार्किक चरणहरूको अनुक्रमहरू कार्यान्वयन गर्न सक्छन्,” सेन्टर फर एआई सेफ्टीका कार्यकारी निर्देशक ड्यान हेन्ड्रिक्सले टाइमलाई बताए। “कसैले त्यो प्रक्रियालाई ‘तर्क’ भन्ने लेबल लगाउने वा अर्को केही भन्ने छनोट गर्छ भने त्यो उनी र उनीहरूको शब्दकोशबीचको कुरा हो।”
टाइम म्यागजिनबाट
प्रतिक्रिया