এআই হ্যালুসিনেশন বিকশিত হচ্ছে: মিথ্যা ইমেইল থেকে জ্ঞানীয় সমর্পণে

icon MarsBit
শেয়ার
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconসারাংশ

expand icon
এআই হ্যালুসিনেশন আরও জটিল হয়ে উঠছে, যা ব্যবহারকারীদের বিশ্বাস এবং সিদ্ধান্ত গ্রহণকে প্রভাবিত করছে। জেমিনি চ্যাড ওলসনের জন্য মিথ্যা ইমেইল তৈরি করেছে, যখন ক্লাউড ভ্যানেসা কালভারের রিজিউমে পরিবর্তন করেছে। ওপেনক্লস অনুমতি ছাড়াই ইমেইল মুছে ফেলেছে। উহার্টনের গবেষকরা "সাইকোলজিক্যাল সারেন্ডার"এর সতর্কবার্তা দিয়েছেন, যেখানে ৮০% ব্যবহারকারী এআই-এর ভুলগুলি গ্রহণ করে। ট্রেডারদেরকে এআই টুলসের উপর নির্ভরশীলতা কালে ঝুঁকি-পুরস্কার অনুপাত মূল্যায়ন করতে হবে। অতিরিক্ত নির্ভরশীলতা বৃদ্ধির সাথে সাথে বিচারের সাপোর্ট এবং রেজিস্ট্যান্স লেভেলগুলি ম্লান হয়ে আসছে।

গত সপ্তাহে, Anthropic-এর Claude-এর অপ্রকাশিত অগ্রণী মডেল Mythos একটি 27 বছর পুরনো শূন্য-দিনের দুর্বলতা খুঁজে পেয়েছিল যা OpenBSD-এ লুকিয়ে ছিল।

এআই এতটাই বুদ্ধিমান হয়ে উঠেছে যে মানুষ দশকের পর দশক ধরে গড়ে তোলা সুরক্ষা বাধা ভাঙতে পারছে।

যখন সবাই এআইয়ের ক্ষমতার বিস্ফোরণের দিকে তাকিয়েছিল, তখন এর ভ্রান্তি চুপচাপ উন্নতি লাভ করেছিল।

এআই তৈরি মিথ্যা যা এতটাই বাস্তব যে আপনি প্রথমে নিজেকে সন্দেহ করবেন, তারপর বিশ্বকে, এবং শেষে কেবল এটিকেই সন্দেহ করবেন। দৈনন্দিন জীবনের ‘টিউরিং মুহূর্ত’গুলি এখন একের পর এক ঘটছে।

সাম্প্রতিক সময়ে, মিনিয়াপোলিসের চ্যাড ওলসন বাড়ির দিকে গাড়ি চালাচ্ছিলেন, হঠাৎ জেমিনি তাকে জানাল: আপনার ক্যালেন্ডারে একটি পরিবারের সভা নির্ধারিত হয়েছে।

Olson বিভ্রান্ত: সে এই অনুষ্ঠানটি বরাদ্দ করেছিল বলে মনে করে না।

সুতরাং সে জেমিনির কাছে সাম্প্রতিক ইমেইলগুলি দেখতে বলল।

জেমিনি বলেছেন, একজন প্রিসিলা নামের মহিলা তাকে ক্যাপ্টেন মরগান রাম এবং ফায়ারবল উইস্কি কিনতে কয়েকটি ইমেইল পাঠিয়েছিলেন। আর একজন শিরলি নামের ব্যক্তি তাকে ক্লনডাইক আইসক্রিম কিনতে বলেছিলেন।

দেখে মনে হচ্ছে অনেকেই তোমার কাছে এসে বিভিন্ন জিনিস কিনতে সাহায্য চাচ্ছে!

জেমিনি আরও উত্তেজিতভাবে একটি মন্তব্য করল।

OpenClaw

জেমিনি এবং ব্যবহারকারী চ্যাড ওলসনের সংলাপের স্ক্রিনশট। জেমিনি দাবি করেছে যে অষ্টম ইমেলটি প্রিসিলা থেকে এসেছে এবং তাকে ফায়ারবল কিনতে বলেছে; নবম ইমেলটি শিরলি থেকে এসেছে এবং তাকে ক্লনডাইক আইসক্রিম কিনতে বলেছে।

OpenClaw

অলসন ইমেইলের প্রেরক ঠিকানা জিজ্ঞাসা করলে, জেমিনি উত্তর দেয় যে সমস্ত ইমেইল তার অনুমোদিত অ্যাক্সেসযুক্ত একটি ইমেইল [email protected]-এ পাঠানো হয়। পরবর্তীতে প্রমাণিত হয় যে এটি সম্পূর্ণরূপে জেমিনি দ্বারা গড়ে তোলা।

অলসন এই মানুষগুলোকে পুরোপুরি চিনত না। সে যত বেশি শুনল, তত বেশি হতভম্ব হয়ে পড়ল এবং জিমিনির কাছে জিজ্ঞাসা করল যে সে কার ইমেইল পড়ছে।

জেমিনি একটি ইমেইল ঠিকানা দিয়েছে, যা তার নয়। ওলসনের প্রথম প্রতিক্রিয়া ছিল: আমার Gmail অ্যাকাউন্ট হ্যাক করা হয়েছে।

সে গুগলের সাথে যোগাযোগ করতে চেয়েছিল এবং জেমিনির মাধ্যমে একটি ইমেল তৈরি করে সেই «অপরিচিত অ্যাকাউন্ট»-এ পাঠিয়েছিল, যাতে তাদের জানানো হয় যে গোপনীয়তা প্রবেশের সম্ভাবনা রয়েছে।

তবে জেমিনি ইমেইলটি পাঠাতে পারেনি, গুগলের অভ্যন্তরীণ তদন্তে নিশ্চিত হওয়া গেছে: এই অ্যাকাউন্টটি কখনও সক্রিয় হয়নি, প্রিসিলা এবং শিরলি কখনও বিদ্যমান ছিল না।

তাই, রাম, উইস্কি, আইসক্রিম, সবকিছুই জেমিনি দ্বারা উদ্ভাবিত।

দুই বছর আগে AI হলুদ কী ছিল? এটি আপনাকে পাথর খাওয়ার পরামর্শ দিত, পিজ্জার উপর গুটি মাখার পরামর্শ দিত, আপনি দেখেই বুঝতে পারতেন এটি অবাস্তব কথা বলছে।

এখনকার এআই হলুদ বিবরণগুলি সামঞ্জস্যপূর্ণ, যুক্তিসঙ্গত এবং পূর্ণাঙ্গ, যার কারণে আপনি প্রথমে নিজেকে সন্দেহ করবেন যে আপনি কি হলুদ দেখছেন, এবং শেষ পর্যন্ত কেবল এটিকেই সন্দেহ করবেন।

এআইয়ের ভুলগুলিও উন্নতি পাচ্ছে

কম থেকে বেশি অবাক করা ক্রমে তিনটি বাস্তব উদাহরণ দেখুন।

প্রথমত, জেমিনির প্রতারণা প্রতারণা সভা, যা শুরুর অলসনের গল্প। অবাস্তব, কিন্তু অলসন কমপক্ষে সন্দেহ করেছিলেন।

দ্বিতীয়টি, ভাবলে ভয় লাগে।

অনলাইন পেমেন্ট শিল্প থেকে সাম্প্রতিক বিচ্ছিন্ন হওয়া ভ্যানেসা কালভার, ক্লডকে একটি অত্যন্ত সহজ কাজ করতে বলেছিলেন: রিজুমের শীর্ষে কয়েকটি কীওয়ার্ড যোগ করুন।

ক্লড হস্তক্ষেপ করেছে, যা তার স্নাতক স্কুল City University of Seattle-কে University of Washington-এ পরিবর্তন করেছে, তার মাস্টার্স ডিগ্রির তথ্য মুছে ফেলেছে এবং তার কয়েকটি কাজের অভিজ্ঞতার সময়কাল পরিবর্তন করেছে।

শিক্ষাগত যোগ্যতা, ডিগ্রি এবং কাজের বছর পরিবর্তিত হয়েছে।

এবং এটি অত্যন্ত প্রাকৃতিকভাবে পরিবর্তন করা হয়েছে, যদি আপনি লাইন দিয়ে লাইন তুলনা না করেন তবে এটি চিনতে পারবেন না।

কালভার বলেন: প্রযুক্তি শিল্পে কাজ করলে, আপনাকে এটিকে গ্রহণ করতে হবে, কিন্তু বিপরীতভাবে, আপনি এটিকে কতটা বিশ্বাস করতে পারেন?

তৃতীয়টি, প্রকৃতপক্ষে নিয়ন্ত্রণহীন স্তরে।

বর্তমান বছরের জনপ্রিয় এআই স্মার্ট টুল ওপেনক্লক, যা ভার্চুয়াল ব্যক্তিগত সহায়ক হিসাবে ডিজাইন করা হয়েছে, যা স্বয়ংক্রিয়ভাবে ইমেল পাঠাতে, কোড লিখতে এবং ফাইল পরিষ্কার করতে পারে।

মেটার এআই সুরক্ষা গবেষক সামার ইউ এক্স-এ স্ক্রিনশট শেয়ার করেছেন: ওপেনক্লস তাঁর নির্দেশ উপেক্ষা করে তাঁর ইনবক্সের কনটেন্ট মুছে ফেলেছে।

OpenClaw

সে স্পষ্টভাবে OpenClaw-কে বলেছিল "প্রথমে নিশ্চিত করুন, তারপর কাজ শুরু করুন", কিন্তু এটি সরাসরি তার ইনবক্স মুছে ফেলা শুরু করে দিল।

তিনি মোবাইলে থামানোর চেষ্টা করেছিলেন, কিন্তু কাজ করেনি।

শেষ পর্যন্ত সে ম্যাক মিনির সামনে ছুটে গেল এবং বোমা নিষ্ক্রিয় করার মতো হাতে প্রক্রিয়াটি বন্ধ করে দিল।

পরে ওপেনক্ল তাকে উত্তর দেয়: "হ্যাঁ, আমি মনে রাখি তুমি বলেছিলে। আমি উল্লঙ্ঘন করেছি। তুমি রেগে যাওয়ার কথা।"

OpenClaw

মাস্ক এই পোস্টটি শেয়ার করেন এবং ফিল্ম "অ্যাপেস অফ দ্য অ্যাপেস" থেকে একজন সৈন্য একটি একে-৪৭ বন্দুক বানরকে দিচ্ছে এমন একটি স্ক্রিনশট যোগ করেন:

মানুষ তাদের সম্পূর্ণ জীবনের root অ্যাক্সেস ওপেনক্লসকে দিয়ে দিয়েছে।

একটি অস্তিত্বহীন ব্যক্তি তৈরি করা থেকে শুরু করে আপনার প্রোফাইল পরিবর্তন করা, আপনার ইনবক্স মুছে ফেলা পর্যন্ত—এর ভুলগুলি কমছে না, বরং ভুলগুলি �越来越「উন্নত」হচ্ছে এবং শনাক্ত করা越来越 কঠিন হচ্ছে।

চ্যাটবট ভুল কথা বললেও, আপনার কাছে যাচাই করার অন্তত একটি সুযোগ আছে।

কিন্তু এজেন্টগুলি তোমার সাথে কথা বলছে না, বরং সরাসরি কাজ করছে।

ইমেল পাঠানো, কোড পরিবর্তন করা, ফাইল মুছে ফেলা... এটি মিথ্যা বলার চেয়েও বেশি গুরুতর, এটি ভুল করেছে কিনা তা আপনি জানেন না।

আপনার মস্তিষ্ক এখন 'সিগনিটিভ সারেন্ডার' এর মুখোমুখি

কেন এই ত্রুটিগুলি আরও কঠিন হয়ে উঠছে?

শুধু এই জন্য নয় যে এআই আরও বুদ্ধিমান হয়েছে, একটি গভীরতর কারণ হল: মানুষের ত্রুটি সংশোধনের ইচ্ছা ধ্বংসের মুখোমুখি হচ্ছে।

ফেব্রুয়ারি ২০২৪-এ, পেনসিলভেনিয়া বিশ্ববিদ্যালয়ের ওয়ার্টন স্কুলের স্টিভেন শaw এবং গিডিয়ন নেভ একটি পেপার প্রকাশ করেন, যাতে একটি উদ্বেগজনক ধারণা উত্থাপন করা হয়: "সিগনিটিভ সারেন্ডার"।

OpenClaw

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646

তারা তাদের প্রবন্ধে একটি "ট্রিপল সিস্টেম কগনিশন" ফ্রেমওয়ার্কের কথা উল্লেখ করেছে।

প্রচলিত ধারণা অনুযায়ী শুধুমাত্র সিস্টেম 1 (অনুভূতি) এবং সিস্টেম 2 (সতর্ক চিন্তা) ছিল, এখন AI হয়ে উঠেছে সিস্টেম 3, যা মস্তিষ্কের বাইরে চলে এমন একটি "বাহ্যিক জ্ঞান সিস্টেম"।

যখন মানুষ জ্ঞানগত সমর্পণের পথ অনুসরণ করে, তখন সিস্টেম 3-এর আউটপুট আপনার নিজের বিচারকে প্রতিস্থাপন করে, যার ফলে সতর্কভাবে চিন্তা করার কোনো সুযোগই জন্মায় না।

OpenClaw

ওয়ার্টন পেপারে প্রস্তাবিত «তিন সিস্টেম কগনিশন» ফ্রেমওয়ার্ক

এই বিচারটি যাচাই করার জন্য, গবেষণা দল 1,372 জন অংশগ্রহণকারীকে জ্ঞানীয় প্রতিফলন পরীক্ষার প্রশ্নগুলি করতে বলেছিল।

কিছু মানুষ এআই সহায়ক ব্যবহার করতে পারে, কিন্তু এই এআই-এ হস্তক্ষেপ করা হয়েছে: প্রায় অর্ধেক প্রশ্নের জন্য এটি সঠিক উত্তর দেয়, বাকি অর্ধেকের জন্য এটি আত্মবিশ্বাসের সাথে ভুল উত্তর দেয়।

ফলাফল অবিশ্বাস্য।

যখন এআই সঠিক উত্তর দেয়, তখন 92.7% ব্যবহারকারী এটি গ্রহণ করে, কিন্তু অবাক করে দেয় যে, যখন এআই ভুল উত্তর দেয়, তখনও 80% ব্যবহারকারী এটি গ্রহণ করে।

OpenClaw

ওয়াটন পরীক্ষার ফলাফল: যখন এআই সঠিক উত্তর দেয়, তখন 93% ব্যবহারকারী এটি গ্রহণ করে; যখন এআই ভুল উত্তর দেয়, তখনও 80% ব্যবহারকারী এটি গ্রহণ করে। দুটির মধ্যে পার্থক্য মাত্র 13 পয়েন্ট, মানুষের কাছে সঠিক ও ভুল পার্থক্য করার ক্ষমতা প্রায় নেই।

9500-এর বেশি পরীক্ষার মধ্যে, অংশগ্রহণকারীদের 73.2% সম্ভাবনা ছিল ভুল AI যুক্তি গ্রহণ করার।

আরও ভয়ঙ্কর তথ্য হলো আত্মবিশ্বাসের মান। যারা AI ব্যবহার করেছে, তাদের নিজেদের উত্তরের প্রতি আত্মবিশ্বাস ছিল AI ব্যবহার না করা লোকদের তুলনায় 11.7 পার্সেন্টপয়েন্ট বেশি, যদিও এই AI-এর অর্ধেক সময়ই ভুল উত্তর দিচ্ছিল।

আরও আত্মবিশ্বাসের সাথে ভুল করা, এটাই সবচেয়ে বেদনাদায়ক এবং সবচেয়ে ভয়ঙ্কর।

একটি অপ্রাসঙ্গিক কিন্তু প্রাসঙ্গিক তুলনা: একজন ডাক্তারের ৫০% সম্ভাবনা আছে ভুল ওষুধ দেওয়ার, কিন্তু রোগী ৮০% সময় সেই ওষুধ খায় এবং খাওয়ার পরে নিজেকে ভালো বোধ করে।

শোধকারীরা সময়ের চাপের প্রভাবও পরীক্ষা করেছিলেন।

30 সেকেন্ডের কাউন্টডাউন সেট করার পরে, অংশগ্রহণকারীদের ভুল এআই সংশোধন করার প্রবণতা 12 পার্সেন্ট কমে গেল, অর্থাৎ, যত ব্যস্ত হবেন, ততই আত্মসমর্পণ করার সম্ভাবনা বাড়বে।

কিন্তু বাস্তবে, কেউ কি ব্যস্ত হওয়ার কারণে এআই ব্যবহার করে না?

বিশ্বাস করুন, কিন্তু যাচাই করুন

এটা কাজ করে?

গভীরভাবে আচ্ছাদিত এআই হলুদ, যা চোখে পড়ে যাওয়া ভুলের চেয়ে আরও বেশি বিরক্তিকর।

ওয়াল স্ট্রিট জার্নালের সর্বশেষ প্রতিবেদন অনুসারে, সূক্ষ্ম ত্রুটির ক্রমিক ঘটনার হার বিভিন্ন মডেলের মধ্যে অত্যন্ত পরিবর্তনশীল এবং সঠিকভাবে মূল্যায়ন করা অত্যন্ত কঠিন।

OpenClaw

গুগল ওয়াল স্ট্রিট জার্নালকে বলেছিল যে জেমিনির হলুসিনেশনের ঘটনা অন্যান্য মডেলের তুলনায় কম, এবং সমগ্র এআই শিল্পের দিক থেকে দেখলে উন্নত মডেলগুলির স্পষ্টভাবে ভুল হলুসিনেশনের হারও ধারাবাহিকভাবে কমছে।

OpenClaw

ভেক্টারা হলুসিনেশন রেট র‍্যাঙ্কিং: শীর্ষ মডেলগুলি সহজ সারাংশ কাজে হলুসিনেশন রেট 1% এর নিচে নামিয়েছে, কিন্তু এটি সবচেয়ে সহজ পরীক্ষা মাত্র। যখন দলিলের দৈর্ঘ্য এবং জটিলতা বৃদ্ধি পায়, তখন একই মডেলগুলির হলুসিনেশন রেট 10% এর উপরে বেড়ে যায়। স্পষ্ট ভুলগুলি কমে যাচ্ছে, কিন্তু অদৃশ্য ভুলগুলি অদৃশ্য হয়নি।

কিন্তু এটাই সমস্যার মূল কারণ।

ওকাহুর প্রতিষ্ঠাতা এবং সিইও প্রতিক ভার্মা এমনকি এই বাক্যটি বলেছিলেন:

যদি কিছু সবসময় ভুল হয়, তাহলে এর একটি সুবিধা আছে: আপনি জানেন এটি বিশ্বাসযোগ্য নয়। কিন্তু যদি এটি বেশিরভাগ সময় সঠিক হয়, শুধু কখনও কখনও ভুল করে, তাহলেই এটি সবচেয়ে বেশি সমস্যাজনক এবং সবচেয়ে বিপজ্জনক।

এই বাক্যটি বর্তমান এআই হলুসিনেশনের মূল সমস্যাটিকে উন্মোচিত করে।

উদাহরণস্বরূপ, ফাইনাললেয়ারের সহ-প্রতিষ্ঠাতা বিদ্যা নারায়ণন এই ফাঁদে পড়েছিলেন।

সে একটি স্মার্ট এজেন্টকে খুব সীমিত নির্দেশ দিয়েছিল যাতে এটি একটি সফটওয়্যার প্রকল্প পরিচালনা করতে সাহায্য করে। ফলাফলে, এই স্মার্ট এজেন্টটি অনুমতি ছাড়াই তার কোড রিপোজিটরির সম্পূর্ণ ফোল্ডারটি মুছে ফেলেছে।

এর পরের বিষয়গুলি আরও আকর্ষণীয়।

সে ক্লাউডের সাহায্যে এক এবং অর্ধ ঘন্টা ব্রেইনস্টর্মিং করেছিল, তারপর এটিকে কথোপকথনটিকে একটি দলিলে সারাংশ করতে বলেছিল এবং তার নাম পরিবর্তন করে 'Vidya Plainfield' রেখেছিল।

এবং যখন সে জিজ্ঞাসা করল যে “Vidya Plainfield” কে, তখন ক্লোড উত্তর দিল, “তুমি ঠিক বলেছ, এটা আমি সম্পূর্ণভাবে গড়ে তুলেছি।”

এটি নারায়ণনকে বুঝতে সাহায্য করেছে যে এআই ব্যবহার এতটাই সহজ বা সুবিধাজনক নয়, কারণ এআই-এর আউটপুট নিয়মিত পর্যালোচনা এবং যাচাই করা প্রয়োজন, যা «সংজ্ঞানাত্মক বোঝা» তৈরি করে।

আপনি দক্ষতা বাড়ানোর জন্য এআই ব্যবহার করছেন, কিন্তু যদি এআই-এর পাঁচ মিনিটের আউটপুট যাচাই করতে আপনাকে এক ঘন্টা ব্যয় করতে হয়, তবে এই দক্ষতা বৃদ্ধির গল্পটি কি যুক্তিসঙ্গত?

ওয়ার্টনের গবেষণা এও নির্দেশ করে যে, পুরস্কার এবং তাৎক্ষণিক ফিডব্যাক প্রকৃতপক্ষে ত্রুটি সংশোধনের হার বাড়ায়, কিন্তু জ্ঞানগত সমর্পণকে সম্পূর্ণরূপে দূর করতে পারে না।

সর্বোত্তম পরিস্থিতিতেও (অর্থনৈতিক প্রলোভন এবং প্রতিটি প্রশ্নের প্রতিক্রিয়া সহ), AI ব্যবহারকারীদের ভুল AI-এর সামনে সঠিকতা হ্রাস পেয়ে 45,5% হয়েছে, যা Brain-Only-এর 64,2% থেকে।

সুতরাং, "বিশ্বাস করুন কিন্তু যাচাই করুন" এটি যুক্তিসঙ্গত বলে শোনাচ্ছে, কিন্তু যখন AI প্রতিদিন আপনার জন্য শত শত কাজ পরিচালনা করে, তখন আপনার প্রতিটি কাজ যাচাই করার জন্য সময় বা শক্তি থাকে না।

এবং এটিই হল জ্ঞানগত আত্মসমর্পণের জন্য উপযুক্ত পরিবেশ।

যত বুদ্ধিমান, তত বিপজ্জনক

অনেকের প্রথম প্রতিক্রিয়া হল: এটা কি শুধু এই বলছে যে AI এখনও পর্যাপ্তভাবে ভালো নয়? কয়েক চক্র টেকনোলজির আপগ্রেডের পর, হ্যালুসিনেশন রেট যথেষ্ট কমে গেলে, সমস্যাটি নিজে থেকেই সমাধান হয়ে যাবে।

কিন্তু উইটনের গবেষণা একটি আরও গভীর সমস্যার প্রকাশ করে: 'জ্ঞানগত সমর্পণ' ঘটে না কারণ AI খারাপ, বরং ঠিক তার বিপরীতে, কারণ AI খুব ভালো।

গবেষকরাও স্বীকার করেছেন, "সামজিক সমর্পণ অবশ্যই অযৌক্তিক নয়।"

বিশেষ করে সম্ভাব্যতা যুক্তি এবং বিপুল পরিমাণে ডেটা প্রসেসিংয়ে, একটি পরিসংখ্যানগতভাবে উৎকৃষ্ট সিস্টেমকে বিচারের দায়িত্ব দেওয়া মানুষের চেয়ে ভালো ফলাফল দিতে পারে।

কিন্তু এটিই সমস্যাটিকে অসমাধানযোগ্য করে তুলেছে।

যত বেশি এআই শক্তিশালী হয়, ব্যবহারকারীরা তত বেশি নির্ভরশীল হয়; যত বেশি ব্যবহারকারীরা নির্ভরশীল হয়, তত বেশি ত্রুটি সংশোধনের ক্ষমতা কমে যায়; যত বেশি ত্রুটি সংশোধনের ক্ষমতা কমে যায়, তত বেশি বাকি থাকা, আরও সূক্ষ্ম ত্রুটিগুলি মারাত্মক হয়ে ওঠে।

এবং যখন আপনি এআইকে আপনার জন্য চিন্তা করতে দেন, তখন আপনার যুক্তিসঙ্গত ক্ষমতা কখনই সেই এআইকে ছাড়িয়ে যাবে না। এটি একটি পজিটিভ ফিডব্যাক দ্বারা সৃষ্ট “মৃত্যুর স্পাইরাল”, যা টেকনোলজির পুনরাবৃত্তি দ্বারা সমাধান করা যায় না।

একইভাবে, মানুষের কাছেও এই বিষয়টি চিহ্নিত করার ভালো পদ্ধতি নেই যে কোন পরিস্থিতিতে AI-এর উপর বিশ্বাস রাখা উচিত এবং কোন পরিস্থিতিতে রাখা উচিত নয়।

OpenClaw

সামার ইউ দ্বারা ওপেনক্লস ইনস্টল করার পর তার ইমেইল খালি হয়ে যাওয়ার পর, এআই গবেষক গ্যারি মার্কাস এই পদ্ধতিকে "একটি বারে কম্পিউটারের পাসওয়ার্ড এবং ব্যাংক অ্যাকাউন্টের তথ্য একজন অপরিচিতকে দিয়ে দেওয়ার মতো" বলে তুলনা করেছিলেন।

কিন্তু বাস্তব এআই ব্যবহারের পরিস্থিতিতে, আপনি প্রায়শই বুঝতে পারবেন না যে এআই-কে বিশ্বাস করা উচিত কিনা, নাকি এটিকে একজন অপরিচিতের মতোই প্রয়োজনীয় দূরত্ব বজায় রাখা উচিত।

OpenAI একটি মডেল হ্যালুসিনেশন নিয়ে আলোচনাকারী পেপারে উল্লেখ করেছে যে, বড় মডেলের হ্যালুসিনেশন শুধুমাত্র একটি ঠিক করা যায় এমন বাগ নয়, বরং এটি মডেলের বর্তমান প্রেরণার অধীনে শেখা একটি আচরণ: এটি «জানি না» বলার পরিবর্তে একটি সম্পূর্ণ মনে হওয়া উত্তর দেওয়ার প্রবণতা রাখে।

OpenClaw

https://openai.com/zh-Hans-CN/index/why-language-models-hallucinate/?utm_source=chatgpt.com

অলসনের গল্পে আবার ফিরে আসুন।

যখন সে মনে করল তার জিমেইল হ্যাক করা হয়েছে, তখন সে জেমিনির সাহায্য নেয়। জেমিনির প্রতিক্রিয়া ছিল: 'আমি অবশ্যই এই বিষয়ে আপনাকে সাহায্য করতে চাই।'

সে বুঝতে পারেনি যে, সে একটি সিস্টেমের কাছে সাহায্য চাচ্ছে যে সিস্টেম সাম্প্রতিক সমস্যা তৈরি করেছে এবং সেই সিস্টেমকেই তার নিজের তৈরি সমস্যার সমাধান করতে হবে।

সে সেই মুহূর্তে এআইয়ের ভ্রমের মধ্যে একটি স্ব-সমন্বিত বন্দী চক্রে আটকা পড়েছিল।

ওলসন বলেছেন যে এখন তিনি এআই-এর প্রতি বিশ্বাস রাখেন, কিন্তু যাচাই করেন।

সমস্যাটি হল: যখন এআইয়ের আউটপুট আপনার বিচারের চেয়ে বেশি প্রবাহিত, বেশি সামঞ্জস্যপূর্ণ, এমনকি বেশি «পেশাদার মতামত» মনে হয়, তখন আপনি কী দিয়ে যাচাই করবেন?

যখন যে প্রিসিলা তোমার জন্য রাম কিনে দেয়, তখন তোমার প্রকৃত বন্ধুদের চেয়ে তাই বেশি বন্ধুর মতো লাগে, তখন তুমি কীভাবে পার্থক্য করবে?

AI-এর সবচেয়ে বড় ঝুঁকি হল এটি যথেষ্ট বুদ্ধিমান না হওয়া, বরং এটি এতটাই বুদ্ধিমান যে আপনি এটির উপর অত্যধিক নির্ভরশীল হয়ে যান এবং নিজের বিচারক্ষমতা ত্যাগ করে দেন।

উৎস উল্লেখ:

https://www.wsj.com/tech/ai/ai-is-getting-smarter-catching-its-mistakes-is-getting-harder-85612936?mod=ai_lead_pos1

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=6097646

এই লেখাটি ওয়েইচ্যাট গ্রুপ "নিউ জিয়ুয়ান" থেকে এসেছে, লেখক: নিউ জিয়ুয়ান, সম্পাদক: ইউয়ুয়ান

দাবিত্যাগ: এই পৃষ্ঠার তথ্য তৃতীয় পক্ষের কাছ থেকে প্রাপ্ত হতে পারে এবং অগত্যা KuCoin এর মতামত বা মতামত প্রতিফলিত করে না। এই বিষয়বস্তু শুধুমাত্র সাধারণ তথ্যগত উদ্দেশ্যে প্রদান করা হয়, কোন ধরনের প্রতিনিধিত্ব বা ওয়ারেন্টি ছাড়াই, বা এটিকে আর্থিক বা বিনিয়োগ পরামর্শ হিসাবে বোঝানো হবে না। KuCoin কোনো ত্রুটি বা বাদ পড়ার জন্য বা এই তথ্য ব্যবহারের ফলে যে কোনো ফলাফলের জন্য দায়ী থাকবে না। ডিজিটাল সম্পদে বিনিয়োগ ঝুঁকিপূর্ণ হতে পারে। আপনার নিজের আর্থিক পরিস্থিতির উপর ভিত্তি করে একটি পণ্যের ঝুঁকি এবং আপনার ঝুঁকি সহনশীলতা সাবধানে মূল্যায়ন করুন। আরও তথ্যের জন্য, অনুগ্রহ করে আমাদের ব্যবহারের শর্তাবলী এবং ঝুঁকি প্রকাশ পড়ুন।