एआई बोटहरूले कसरी अनलाइन गलत सूचना फैलाउँछन् र हाम्रो राजनीतिक चेतनामा हस्तक्षेप गर्छन्
बिहानको सुरुवात कफीको कपसँग हुन्छ। तपाईं मोबाइल खोलेर ट्विटर (अब “एक्स”) मा समाचार स्क्रोल गर्नुहुन्छ।
राजनीतिक मेमहरू, “फ्री स्पिच”, “मेक अमेरिका ग्रेट अगेन”, “ड्रेन द स्वाम्प” र “कल्चरल मार्क्सिज्म” जस्ता शब्दहरू तपाईंको स्क्रिनमा एकसाथ देखा पर्छन्।
अचानक, विचारहरू मिसिन्छन्। शब्दहरू चेतनामा गढिन्छन्। अनलाइनमा भेटिएका ती वाक्यांशहरूले तपाईंको दृष्टिकोणमा सूक्ष्म तर गहिरो असर पार्न थाल्छन्।
हाम्रो युगमा, शब्द अब केवल भाषा होइनन् — ती राजनीतिक हतियार हुन्।
“बिल्ड द वाल”, “ट्रुडो मस्ट गो” जस्ता नाराहरू अब डिजिटल संसारका गोला–बारुद भएका छन्, जसले सार्वजनिक विमर्शलाई भावनात्मक रूपमा विभाजित गर्छन्। तर, प्रश्न यो हो — जब अनलाइन सञ्जालमा मानिस र मेसिनको आवाज मिसिन्छ, तब हामी कसरी छुट्याउँछौं कि कुन कुरा वास्तविक हो र कुन कृत्रिम ?
‘बोटागान्डा’ : डिजिटल प्रचारको नयाँ मोर्चा
एआईद्वारा सञ्चालित बोटहरू अहिले राजनीति र सार्वजनिक मत निर्माणमा एक शक्तिशाली उपकरण बनेका छन्।
यी बोटहरूले स्वचालित रूपमा ट्विट गर्न, लाइक गर्न, सामग्री साझा गर्न र मानवीय व्यवहार नक्कल गर्न सक्छन्।
मेरो अनुसन्धानले “बोटागान्डा” — अर्थात् बोटहरूले फैलाउने राजनीतिक प्रचारले कसरी चुनावी वातावरण र जनमतमा प्रभाव पार्छ, त्यसको विश्लेषण गर्छ।
विद्वानहरूले चेतावनी दिएका छन् — बोटहरूले मानिसका मनोवैज्ञानिक कमजोरीको फाइदा उठाएर उनलाई आफ्नै हितविरुद्ध निर्णय गर्न प्रेरित गर्न सक्छन्।
एआई र मेसिन लर्निङले जीवनलाई सजिलो बनाएको छ, तर यसले स्वतन्त्र सोच कमजोर बनाउँदैछ।
डिजिटल गलत सूचनाको यो बढ्दो प्रवाहले हामीलाई सजग हुन बाध्य बनाएको छ। निर्णयहरू अब जानकारीका आधारमा होइन, एल्गोरिदमका ढाँचामा ढालिन थालेका छन्।
मनोवैज्ञानिक जालः हामी किन फस्छौं ?
मानव मस्तिष्कको सामाजिक प्रकृति नै यसको कमजोरी हो। हामी स्वाभाविक रूपमा अरूको भाषाशैली नक्कल गर्छौं, दोहोरिने शब्दहरू सजिलै सम्झन्छौं, र एउटै सन्दर्भमा दोहोरिने वाक्यांशहरूले असम्बन्धित विचारहरू पनि जोडिदिन्छन्। जब बोटहरूले “ड्रेन द स्वाम्प” वा “लिबरल कवेरअप” जस्ता वाक्यांशहरू बारम्बार प्रयोग गर्छन्, ती शब्दहरू हाम्रो चेतनामा स्थायी सम्बन्धका रूपमा बस्छन्।
फलस्वरूप, ती शब्दहरू वास्तविकता भन्दा बढी “सत्य” जस्ता लाग्न थाल्छन्।
क्यानाडाको केस स्टडीः बोट र मानिसबीचको समानता
मेरो अनुसन्धानले सन् २०१९ को SNC Lavalin Scandal का समयमा क्यानाडाको ट्विटर प्रयोगकर्तामा बोटहरूको प्रभाव मापन गरेको थियो । मार्च १४ देखि अप्रिल ९ सम्मको डाटा विश्लेषण गर्दा, बोट र मानिसका ट्विटबीच ७५ प्रतिशत सम्म समानता पाइयो — जुन मार्च २८ सम्म बढेर ९२ प्रतिशत पुग्यो। भावनात्मक शब्दहरूको पुनरावृत्ति ९७ प्रतिशत सम्म मेल खान पुग्यो ।
यसले के देखाउँछ भने मानिसले नसोचीकनै बोटहरूको भाषा, टोन र भावनात्मक संरचना नक्कल गरेका थिए।
यी ट्विटहरूमा “Trudeau’s Scandal”, “Obstruction of Justice”, “Liberal Coverup” जस्ता वाक्यांशहरू बारम्बार देखा परे, जुन पछि मानिसहरूद्वारा दोहोर्याइएका थिए। अर्थात् — बोटहरूले संवादको दिशा नै निर्धारण गरिरहेका थिए, र मानिसहरू त्यसको प्रतिध्वनि मात्र बनिरहेका थिए।
सामाजिक नक्कलः मानिस र मेसिनबीचको अन्तर्क्रिया
मानव स्वभावतः अनुकरणशील हुन्छ। हामी हाम्रो वरिपरिका भाषाशैली र व्यवहार नक्कल गर्छौं, र अनलाइन सञ्जालमा पनि यही मनोविज्ञान दोहोरिन्छ। बोटहरूले प्रयोग गर्ने आकर्षक वाक्यांशहरूले हाम्रो अभिव्यक्तिमा असर पार्छ, हाम्रो भाषिक ढाँचा नै परिवर्तन गर्छ।
“Make America Great Again” जस्तो नारा एउटा मनोवैज्ञानिक सूत्र हो — जसले राष्ट्र, असन्तोष र पहिचानका भावनाहरूलाई एउटै रेखामा जोडिदिन्छ। यी शब्दहरूले विचार मात्र होइन, भावना पनि नियन्त्रण गर्छन्।
लोकतन्त्रका लागि चुनौती र उपाय
डिजिटल युगमा लोकतन्त्रको सबभन्दा ठूलो चुनौती अब मतपेटिका होइन, मेम्स र ह्याशट्याग्स बन्न पुगेका छन् ।
जब बोटहरू र एआईले हाम्रो भाषिक चेतनालाई नियन्त्रण गर्छन्, तब स्वतन्त्र सोच कमजोर हुन्छ।
यसबाट जोगिनको उपाय भनेको —
१. सचेत रहनु, २. स्रोत पहिचान गर्न सक्ष्मा बन्नु र ३. भावनात्मक सन्देशभन्दा तथ्यमा ध्यान दिनु हो ।
हाम्रो लोकतन्त्र केवल मताधिकारले होइन, जानकारीका स्रोतको विश्वसनीयता ले पनि मापन हुन्छ। एआई युगमा नागरिकता अब केवल अधिकार होइन — जिम्मेवारी हो।
Excerpts: The Conversation
प्रतिक्रिया