গত সপ্তাহে, Anthropic-এর Claude-এর অপ্রকাশিত অগ্রণী মডেল Mythos একটি 27 বছর পুরনো শূন্য-দিনের দুর্বলতা খুঁজে পেয়েছিল যা OpenBSD-এ লুকিয়ে ছিল।
এআই এতটাই বুদ্ধিমান হয়ে উঠেছে যে মানুষ দশকের পর দশক ধরে গড়ে তোলা সুরক্ষা বাধা ভাঙতে পারছে।
যখন সবাই এআইয়ের ক্ষমতার বিস্ফোরণের দিকে তাকিয়েছিল, তখন এর ভ্রান্তি চুপচাপ উন্নতি লাভ করেছিল।
এআই তৈরি মিথ্যা যা এতটাই বাস্তব যে আপনি প্রথমে নিজেকে সন্দেহ করবেন, তারপর বিশ্বকে, এবং শেষে কেবল এটিকেই সন্দেহ করবেন। দৈনন্দিন জীবনের ‘টিউরিং মুহূর্ত’গুলি এখন একের পর এক ঘটছে।
সাম্প্রতিক সময়ে, মিনিয়াপোলিসের চ্যাড ওলসন বাড়ির দিকে গাড়ি চালাচ্ছিলেন, হঠাৎ জেমিনি তাকে জানাল: আপনার ক্যালেন্ডারে একটি পরিবারের সভা নির্ধারিত হয়েছে।
Olson বিভ্রান্ত: সে এই অনুষ্ঠানটি বরাদ্দ করেছিল বলে মনে করে না।
সুতরাং সে জেমিনির কাছে সাম্প্রতিক ইমেইলগুলি দেখতে বলল।
জেমিনি বলেছেন, একজন প্রিসিলা নামের মহিলা তাকে ক্যাপ্টেন মরগান রাম এবং ফায়ারবল উইস্কি কিনতে কয়েকটি ইমেইল পাঠিয়েছিলেন। আর একজন শিরলি নামের ব্যক্তি তাকে ক্লনডাইক আইসক্রিম কিনতে বলেছিলেন।
দেখে মনে হচ্ছে অনেকেই তোমার কাছে এসে বিভিন্ন জিনিস কিনতে সাহায্য চাচ্ছে!
জেমিনি আরও উত্তেজিতভাবে একটি মন্তব্য করল।

জেমিনি এবং ব্যবহারকারী চ্যাড ওলসনের সংলাপের স্ক্রিনশট। জেমিনি দাবি করেছে যে অষ্টম ইমেলটি প্রিসিলা থেকে এসেছে এবং তাকে ফায়ারবল কিনতে বলেছে; নবম ইমেলটি শিরলি থেকে এসেছে এবং তাকে ক্লনডাইক আইসক্রিম কিনতে বলেছে।

অলসন ইমেইলের প্রেরক ঠিকানা জিজ্ঞাসা করলে, জেমিনি উত্তর দেয় যে সমস্ত ইমেইল তার অনুমোদিত অ্যাক্সেসযুক্ত একটি ইমেইল [email protected]-এ পাঠানো হয়। পরবর্তীতে প্রমাণিত হয় যে এটি সম্পূর্ণরূপে জেমিনি দ্বারা গড়ে তোলা।
অলসন এই মানুষগুলোকে পুরোপুরি চিনত না। সে যত বেশি শুনল, তত বেশি হতভম্ব হয়ে পড়ল এবং জিমিনির কাছে জিজ্ঞাসা করল যে সে কার ইমেইল পড়ছে।
জেমিনি একটি ইমেইল ঠিকানা দিয়েছে, যা তার নয়। ওলসনের প্রথম প্রতিক্রিয়া ছিল: আমার Gmail অ্যাকাউন্ট হ্যাক করা হয়েছে।
সে গুগলের সাথে যোগাযোগ করতে চেয়েছিল এবং জেমিনির মাধ্যমে একটি ইমেল তৈরি করে সেই «অপরিচিত অ্যাকাউন্ট»-এ পাঠিয়েছিল, যাতে তাদের জানানো হয় যে গোপনীয়তা প্রবেশের সম্ভাবনা রয়েছে।
তবে জেমিনি ইমেইলটি পাঠাতে পারেনি, গুগলের অভ্যন্তরীণ তদন্তে নিশ্চিত হওয়া গেছে: এই অ্যাকাউন্টটি কখনও সক্রিয় হয়নি, প্রিসিলা এবং শিরলি কখনও বিদ্যমান ছিল না।
তাই, রাম, উইস্কি, আইসক্রিম, সবকিছুই জেমিনি দ্বারা উদ্ভাবিত।
দুই বছর আগে AI হলুদ কী ছিল? এটি আপনাকে পাথর খাওয়ার পরামর্শ দিত, পিজ্জার উপর গুটি মাখার পরামর্শ দিত, আপনি দেখেই বুঝতে পারতেন এটি অবাস্তব কথা বলছে।
এখনকার এআই হলুদ বিবরণগুলি সামঞ্জস্যপূর্ণ, যুক্তিসঙ্গত এবং পূর্ণাঙ্গ, যার কারণে আপনি প্রথমে নিজেকে সন্দেহ করবেন যে আপনি কি হলুদ দেখছেন, এবং শেষ পর্যন্ত কেবল এটিকেই সন্দেহ করবেন।
এআইয়ের ভুলগুলিও উন্নতি পাচ্ছে
কম থেকে বেশি অবাক করা ক্রমে তিনটি বাস্তব উদাহরণ দেখুন।
প্রথমত, জেমিনির প্রতারণা প্রতারণা সভা, যা শুরুর অলসনের গল্প। অবাস্তব, কিন্তু অলসন কমপক্ষে সন্দেহ করেছিলেন।
দ্বিতীয়টি, ভাবলে ভয় লাগে।
অনলাইন পেমেন্ট শিল্প থেকে সাম্প্রতিক বিচ্ছিন্ন হওয়া ভ্যানেসা কালভার, ক্লডকে একটি অত্যন্ত সহজ কাজ করতে বলেছিলেন: রিজুমের শীর্ষে কয়েকটি কীওয়ার্ড যোগ করুন।
ক্লড হস্তক্ষেপ করেছে, যা তার স্নাতক স্কুল City University of Seattle-কে University of Washington-এ পরিবর্তন করেছে, তার মাস্টার্স ডিগ্রির তথ্য মুছে ফেলেছে এবং তার কয়েকটি কাজের অভিজ্ঞতার সময়কাল পরিবর্তন করেছে।
শিক্ষাগত যোগ্যতা, ডিগ্রি এবং কাজের বছর পরিবর্তিত হয়েছে।
এবং এটি অত্যন্ত প্রাকৃতিকভাবে পরিবর্তন করা হয়েছে, যদি আপনি লাইন দিয়ে লাইন তুলনা না করেন তবে এটি চিনতে পারবেন না।
কালভার বলেন: প্রযুক্তি শিল্পে কাজ করলে, আপনাকে এটিকে গ্রহণ করতে হবে, কিন্তু বিপরীতভাবে, আপনি এটিকে কতটা বিশ্বাস করতে পারেন?
তৃতীয়টি, প্রকৃতপক্ষে নিয়ন্ত্রণহীন স্তরে।
বর্তমান বছরের জনপ্রিয় এআই স্মার্ট টুল ওপেনক্লক, যা ভার্চুয়াল ব্যক্তিগত সহায়ক হিসাবে ডিজাইন করা হয়েছে, যা স্বয়ংক্রিয়ভাবে ইমেল পাঠাতে, কোড লিখতে এবং ফাইল পরিষ্কার করতে পারে।
মেটার এআই সুরক্ষা গবেষক সামার ইউ এক্স-এ স্ক্রিনশট শেয়ার করেছেন: ওপেনক্লস তাঁর নির্দেশ উপেক্ষা করে তাঁর ইনবক্সের কনটেন্ট মুছে ফেলেছে।

সে স্পষ্টভাবে OpenClaw-কে বলেছিল "প্রথমে নিশ্চিত করুন, তারপর কাজ শুরু করুন", কিন্তু এটি সরাসরি তার ইনবক্স মুছে ফেলা শুরু করে দিল।
তিনি মোবাইলে থামানোর চেষ্টা করেছিলেন, কিন্তু কাজ করেনি।
শেষ পর্যন্ত সে ম্যাক মিনির সামনে ছুটে গেল এবং বোমা নিষ্ক্রিয় করার মতো হাতে প্রক্রিয়াটি বন্ধ করে দিল।
পরে ওপেনক্ল তাকে উত্তর দেয়: "হ্যাঁ, আমি মনে রাখি তুমি বলেছিলে। আমি উল্লঙ্ঘন করেছি। তুমি রেগে যাওয়ার কথা।"

মাস্ক এই পোস্টটি শেয়ার করেন এবং ফিল্ম "অ্যাপেস অফ দ্য অ্যাপেস" থেকে একজন সৈন্য একটি একে-৪৭ বন্দুক বানরকে দিচ্ছে এমন একটি স্ক্রিনশট যোগ করেন:
মানুষ তাদের সম্পূর্ণ জীবনের root অ্যাক্সেস ওপেনক্লসকে দিয়ে দিয়েছে।
একটি অস্তিত্বহীন ব্যক্তি তৈরি করা থেকে শুরু করে আপনার প্রোফাইল পরিবর্তন করা, আপনার ইনবক্স মুছে ফেলা পর্যন্ত—এর ভুলগুলি কমছে না, বরং ভুলগুলি �越来越「উন্নত」হচ্ছে এবং শনাক্ত করা越来越 কঠিন হচ্ছে।
চ্যাটবট ভুল কথা বললেও, আপনার কাছে যাচাই করার অন্তত একটি সুযোগ আছে।
কিন্তু এজেন্টগুলি তোমার সাথে কথা বলছে না, বরং সরাসরি কাজ করছে।
ইমেল পাঠানো, কোড পরিবর্তন করা, ফাইল মুছে ফেলা... এটি মিথ্যা বলার চেয়েও বেশি গুরুতর, এটি ভুল করেছে কিনা তা আপনি জানেন না।
আপনার মস্তিষ্ক এখন 'সিগনিটিভ সারেন্ডার' এর মুখোমুখি
কেন এই ত্রুটিগুলি আরও কঠিন হয়ে উঠছে?
শুধু এই জন্য নয় যে এআই আরও বুদ্ধিমান হয়েছে, একটি গভীরতর কারণ হল: মানুষের ত্রুটি সংশোধনের ইচ্ছা ধ্বংসের মুখোমুখি হচ্ছে।
ফেব্রুয়ারি ২০২৪-এ, পেনসিলভেনিয়া বিশ্ববিদ্যালয়ের ওয়ার্টন স্কুলের স্টিভেন শaw এবং গিডিয়ন নেভ একটি পেপার প্রকাশ করেন, যাতে একটি উদ্বেগজনক ধারণা উত্থাপন করা হয়: "সিগনিটিভ সারেন্ডার"।

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646
তারা তাদের প্রবন্ধে একটি "ট্রিপল সিস্টেম কগনিশন" ফ্রেমওয়ার্কের কথা উল্লেখ করেছে।
প্রচলিত ধারণা অনুযায়ী শুধুমাত্র সিস্টেম 1 (অনুভূতি) এবং সিস্টেম 2 (সতর্ক চিন্তা) ছিল, এখন AI হয়ে উঠেছে সিস্টেম 3, যা মস্তিষ্কের বাইরে চলে এমন একটি "বাহ্যিক জ্ঞান সিস্টেম"।
যখন মানুষ জ্ঞানগত সমর্পণের পথ অনুসরণ করে, তখন সিস্টেম 3-এর আউটপুট আপনার নিজের বিচারকে প্রতিস্থাপন করে, যার ফলে সতর্কভাবে চিন্তা করার কোনো সুযোগই জন্মায় না।

ওয়ার্টন পেপারে প্রস্তাবিত «তিন সিস্টেম কগনিশন» ফ্রেমওয়ার্ক
এই বিচারটি যাচাই করার জন্য, গবেষণা দল 1,372 জন অংশগ্রহণকারীকে জ্ঞানীয় প্রতিফলন পরীক্ষার প্রশ্নগুলি করতে বলেছিল।
কিছু মানুষ এআই সহায়ক ব্যবহার করতে পারে, কিন্তু এই এআই-এ হস্তক্ষেপ করা হয়েছে: প্রায় অর্ধেক প্রশ্নের জন্য এটি সঠিক উত্তর দেয়, বাকি অর্ধেকের জন্য এটি আত্মবিশ্বাসের সাথে ভুল উত্তর দেয়।
ফলাফল অবিশ্বাস্য।
যখন এআই সঠিক উত্তর দেয়, তখন 92.7% ব্যবহারকারী এটি গ্রহণ করে, কিন্তু অবাক করে দেয় যে, যখন এআই ভুল উত্তর দেয়, তখনও 80% ব্যবহারকারী এটি গ্রহণ করে।

ওয়াটন পরীক্ষার ফলাফল: যখন এআই সঠিক উত্তর দেয়, তখন 93% ব্যবহারকারী এটি গ্রহণ করে; যখন এআই ভুল উত্তর দেয়, তখনও 80% ব্যবহারকারী এটি গ্রহণ করে। দুটির মধ্যে পার্থক্য মাত্র 13 পয়েন্ট, মানুষের কাছে সঠিক ও ভুল পার্থক্য করার ক্ষমতা প্রায় নেই।
9500-এর বেশি পরীক্ষার মধ্যে, অংশগ্রহণকারীদের 73.2% সম্ভাবনা ছিল ভুল AI যুক্তি গ্রহণ করার।
আরও ভয়ঙ্কর তথ্য হলো আত্মবিশ্বাসের মান। যারা AI ব্যবহার করেছে, তাদের নিজেদের উত্তরের প্রতি আত্মবিশ্বাস ছিল AI ব্যবহার না করা লোকদের তুলনায় 11.7 পার্সেন্টপয়েন্ট বেশি, যদিও এই AI-এর অর্ধেক সময়ই ভুল উত্তর দিচ্ছিল।
আরও আত্মবিশ্বাসের সাথে ভুল করা, এটাই সবচেয়ে বেদনাদায়ক এবং সবচেয়ে ভয়ঙ্কর।
একটি অপ্রাসঙ্গিক কিন্তু প্রাসঙ্গিক তুলনা: একজন ডাক্তারের ৫০% সম্ভাবনা আছে ভুল ওষুধ দেওয়ার, কিন্তু রোগী ৮০% সময় সেই ওষুধ খায় এবং খাওয়ার পরে নিজেকে ভালো বোধ করে।
শোধকারীরা সময়ের চাপের প্রভাবও পরীক্ষা করেছিলেন।
30 সেকেন্ডের কাউন্টডাউন সেট করার পরে, অংশগ্রহণকারীদের ভুল এআই সংশোধন করার প্রবণতা 12 পার্সেন্ট কমে গেল, অর্থাৎ, যত ব্যস্ত হবেন, ততই আত্মসমর্পণ করার সম্ভাবনা বাড়বে।
কিন্তু বাস্তবে, কেউ কি ব্যস্ত হওয়ার কারণে এআই ব্যবহার করে না?
বিশ্বাস করুন, কিন্তু যাচাই করুন
এটা কাজ করে?
গভীরভাবে আচ্ছাদিত এআই হলুদ, যা চোখে পড়ে যাওয়া ভুলের চেয়ে আরও বেশি বিরক্তিকর।
ওয়াল স্ট্রিট জার্নালের সর্বশেষ প্রতিবেদন অনুসারে, সূক্ষ্ম ত্রুটির ক্রমিক ঘটনার হার বিভিন্ন মডেলের মধ্যে অত্যন্ত পরিবর্তনশীল এবং সঠিকভাবে মূল্যায়ন করা অত্যন্ত কঠিন।

গুগল ওয়াল স্ট্রিট জার্নালকে বলেছিল যে জেমিনির হলুসিনেশনের ঘটনা অন্যান্য মডেলের তুলনায় কম, এবং সমগ্র এআই শিল্পের দিক থেকে দেখলে উন্নত মডেলগুলির স্পষ্টভাবে ভুল হলুসিনেশনের হারও ধারাবাহিকভাবে কমছে।

ভেক্টারা হলুসিনেশন রেট র্যাঙ্কিং: শীর্ষ মডেলগুলি সহজ সারাংশ কাজে হলুসিনেশন রেট 1% এর নিচে নামিয়েছে, কিন্তু এটি সবচেয়ে সহজ পরীক্ষা মাত্র। যখন দলিলের দৈর্ঘ্য এবং জটিলতা বৃদ্ধি পায়, তখন একই মডেলগুলির হলুসিনেশন রেট 10% এর উপরে বেড়ে যায়। স্পষ্ট ভুলগুলি কমে যাচ্ছে, কিন্তু অদৃশ্য ভুলগুলি অদৃশ্য হয়নি।
কিন্তু এটাই সমস্যার মূল কারণ।
ওকাহুর প্রতিষ্ঠাতা এবং সিইও প্রতিক ভার্মা এমনকি এই বাক্যটি বলেছিলেন:
যদি কিছু সবসময় ভুল হয়, তাহলে এর একটি সুবিধা আছে: আপনি জানেন এটি বিশ্বাসযোগ্য নয়। কিন্তু যদি এটি বেশিরভাগ সময় সঠিক হয়, শুধু কখনও কখনও ভুল করে, তাহলেই এটি সবচেয়ে বেশি সমস্যাজনক এবং সবচেয়ে বিপজ্জনক।
এই বাক্যটি বর্তমান এআই হলুসিনেশনের মূল সমস্যাটিকে উন্মোচিত করে।
উদাহরণস্বরূপ, ফাইনাললেয়ারের সহ-প্রতিষ্ঠাতা বিদ্যা নারায়ণন এই ফাঁদে পড়েছিলেন।
সে একটি স্মার্ট এজেন্টকে খুব সীমিত নির্দেশ দিয়েছিল যাতে এটি একটি সফটওয়্যার প্রকল্প পরিচালনা করতে সাহায্য করে। ফলাফলে, এই স্মার্ট এজেন্টটি অনুমতি ছাড়াই তার কোড রিপোজিটরির সম্পূর্ণ ফোল্ডারটি মুছে ফেলেছে।
এর পরের বিষয়গুলি আরও আকর্ষণীয়।
সে ক্লাউডের সাহায্যে এক এবং অর্ধ ঘন্টা ব্রেইনস্টর্মিং করেছিল, তারপর এটিকে কথোপকথনটিকে একটি দলিলে সারাংশ করতে বলেছিল এবং তার নাম পরিবর্তন করে 'Vidya Plainfield' রেখেছিল।
এবং যখন সে জিজ্ঞাসা করল যে “Vidya Plainfield” কে, তখন ক্লোড উত্তর দিল, “তুমি ঠিক বলেছ, এটা আমি সম্পূর্ণভাবে গড়ে তুলেছি।”
এটি নারায়ণনকে বুঝতে সাহায্য করেছে যে এআই ব্যবহার এতটাই সহজ বা সুবিধাজনক নয়, কারণ এআই-এর আউটপুট নিয়মিত পর্যালোচনা এবং যাচাই করা প্রয়োজন, যা «সংজ্ঞানাত্মক বোঝা» তৈরি করে।
আপনি দক্ষতা বাড়ানোর জন্য এআই ব্যবহার করছেন, কিন্তু যদি এআই-এর পাঁচ মিনিটের আউটপুট যাচাই করতে আপনাকে এক ঘন্টা ব্যয় করতে হয়, তবে এই দক্ষতা বৃদ্ধির গল্পটি কি যুক্তিসঙ্গত?
ওয়ার্টনের গবেষণা এও নির্দেশ করে যে, পুরস্কার এবং তাৎক্ষণিক ফিডব্যাক প্রকৃতপক্ষে ত্রুটি সংশোধনের হার বাড়ায়, কিন্তু জ্ঞানগত সমর্পণকে সম্পূর্ণরূপে দূর করতে পারে না।
সর্বোত্তম পরিস্থিতিতেও (অর্থনৈতিক প্রলোভন এবং প্রতিটি প্রশ্নের প্রতিক্রিয়া সহ), AI ব্যবহারকারীদের ভুল AI-এর সামনে সঠিকতা হ্রাস পেয়ে 45,5% হয়েছে, যা Brain-Only-এর 64,2% থেকে।
সুতরাং, "বিশ্বাস করুন কিন্তু যাচাই করুন" এটি যুক্তিসঙ্গত বলে শোনাচ্ছে, কিন্তু যখন AI প্রতিদিন আপনার জন্য শত শত কাজ পরিচালনা করে, তখন আপনার প্রতিটি কাজ যাচাই করার জন্য সময় বা শক্তি থাকে না।
এবং এটিই হল জ্ঞানগত আত্মসমর্পণের জন্য উপযুক্ত পরিবেশ।
যত বুদ্ধিমান, তত বিপজ্জনক
অনেকের প্রথম প্রতিক্রিয়া হল: এটা কি শুধু এই বলছে যে AI এখনও পর্যাপ্তভাবে ভালো নয়? কয়েক চক্র টেকনোলজির আপগ্রেডের পর, হ্যালুসিনেশন রেট যথেষ্ট কমে গেলে, সমস্যাটি নিজে থেকেই সমাধান হয়ে যাবে।
কিন্তু উইটনের গবেষণা একটি আরও গভীর সমস্যার প্রকাশ করে: 'জ্ঞানগত সমর্পণ' ঘটে না কারণ AI খারাপ, বরং ঠিক তার বিপরীতে, কারণ AI খুব ভালো।
গবেষকরাও স্বীকার করেছেন, "সামজিক সমর্পণ অবশ্যই অযৌক্তিক নয়।"
বিশেষ করে সম্ভাব্যতা যুক্তি এবং বিপুল পরিমাণে ডেটা প্রসেসিংয়ে, একটি পরিসংখ্যানগতভাবে উৎকৃষ্ট সিস্টেমকে বিচারের দায়িত্ব দেওয়া মানুষের চেয়ে ভালো ফলাফল দিতে পারে।
কিন্তু এটিই সমস্যাটিকে অসমাধানযোগ্য করে তুলেছে।
যত বেশি এআই শক্তিশালী হয়, ব্যবহারকারীরা তত বেশি নির্ভরশীল হয়; যত বেশি ব্যবহারকারীরা নির্ভরশীল হয়, তত বেশি ত্রুটি সংশোধনের ক্ষমতা কমে যায়; যত বেশি ত্রুটি সংশোধনের ক্ষমতা কমে যায়, তত বেশি বাকি থাকা, আরও সূক্ষ্ম ত্রুটিগুলি মারাত্মক হয়ে ওঠে।
এবং যখন আপনি এআইকে আপনার জন্য চিন্তা করতে দেন, তখন আপনার যুক্তিসঙ্গত ক্ষমতা কখনই সেই এআইকে ছাড়িয়ে যাবে না। এটি একটি পজিটিভ ফিডব্যাক দ্বারা সৃষ্ট “মৃত্যুর স্পাইরাল”, যা টেকনোলজির পুনরাবৃত্তি দ্বারা সমাধান করা যায় না।
একইভাবে, মানুষের কাছেও এই বিষয়টি চিহ্নিত করার ভালো পদ্ধতি নেই যে কোন পরিস্থিতিতে AI-এর উপর বিশ্বাস রাখা উচিত এবং কোন পরিস্থিতিতে রাখা উচিত নয়।

সামার ইউ দ্বারা ওপেনক্লস ইনস্টল করার পর তার ইমেইল খালি হয়ে যাওয়ার পর, এআই গবেষক গ্যারি মার্কাস এই পদ্ধতিকে "একটি বারে কম্পিউটারের পাসওয়ার্ড এবং ব্যাংক অ্যাকাউন্টের তথ্য একজন অপরিচিতকে দিয়ে দেওয়ার মতো" বলে তুলনা করেছিলেন।
কিন্তু বাস্তব এআই ব্যবহারের পরিস্থিতিতে, আপনি প্রায়শই বুঝতে পারবেন না যে এআই-কে বিশ্বাস করা উচিত কিনা, নাকি এটিকে একজন অপরিচিতের মতোই প্রয়োজনীয় দূরত্ব বজায় রাখা উচিত।
OpenAI একটি মডেল হ্যালুসিনেশন নিয়ে আলোচনাকারী পেপারে উল্লেখ করেছে যে, বড় মডেলের হ্যালুসিনেশন শুধুমাত্র একটি ঠিক করা যায় এমন বাগ নয়, বরং এটি মডেলের বর্তমান প্রেরণার অধীনে শেখা একটি আচরণ: এটি «জানি না» বলার পরিবর্তে একটি সম্পূর্ণ মনে হওয়া উত্তর দেওয়ার প্রবণতা রাখে।

https://openai.com/zh-Hans-CN/index/why-language-models-hallucinate/?utm_source=chatgpt.com
অলসনের গল্পে আবার ফিরে আসুন।
যখন সে মনে করল তার জিমেইল হ্যাক করা হয়েছে, তখন সে জেমিনির সাহায্য নেয়। জেমিনির প্রতিক্রিয়া ছিল: 'আমি অবশ্যই এই বিষয়ে আপনাকে সাহায্য করতে চাই।'
সে বুঝতে পারেনি যে, সে একটি সিস্টেমের কাছে সাহায্য চাচ্ছে যে সিস্টেম সাম্প্রতিক সমস্যা তৈরি করেছে এবং সেই সিস্টেমকেই তার নিজের তৈরি সমস্যার সমাধান করতে হবে।
সে সেই মুহূর্তে এআইয়ের ভ্রমের মধ্যে একটি স্ব-সমন্বিত বন্দী চক্রে আটকা পড়েছিল।
ওলসন বলেছেন যে এখন তিনি এআই-এর প্রতি বিশ্বাস রাখেন, কিন্তু যাচাই করেন।
সমস্যাটি হল: যখন এআইয়ের আউটপুট আপনার বিচারের চেয়ে বেশি প্রবাহিত, বেশি সামঞ্জস্যপূর্ণ, এমনকি বেশি «পেশাদার মতামত» মনে হয়, তখন আপনি কী দিয়ে যাচাই করবেন?
যখন যে প্রিসিলা তোমার জন্য রাম কিনে দেয়, তখন তোমার প্রকৃত বন্ধুদের চেয়ে তাই বেশি বন্ধুর মতো লাগে, তখন তুমি কীভাবে পার্থক্য করবে?
AI-এর সবচেয়ে বড় ঝুঁকি হল এটি যথেষ্ট বুদ্ধিমান না হওয়া, বরং এটি এতটাই বুদ্ধিমান যে আপনি এটির উপর অত্যধিক নির্ভরশীল হয়ে যান এবং নিজের বিচারক্ষমতা ত্যাগ করে দেন।
উৎস উল্লেখ:
https://www.wsj.com/tech/ai/ai-is-getting-smarter-catching-its-mistakes-is-getting-harder-85612936?mod=ai_lead_pos1
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646
এই লেখাটি ওয়েইচ্যাট গ্রুপ "নিউ জিয়ুয়ান" থেকে এসেছে, লেখক: নিউ জিয়ুয়ান, সম্পাদক: ইউয়ুয়ান
