নিউ ইয়র্ক টাইমসের প্রতিবেদনে প্রকাশ পেয়েছে যে ওপেনএআই-এর অভ্যন্তরীণ সদস্যদের মধ্যে স্যাম আলটম্যানের বিশ্বস্ততা নিয়ে সন্দেহ রয়েছে

iconTechFlow
শেয়ার
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconসারাংশ

expand icon
নিউ ইয়র্ক টাইমসের অন-চেইন সংবাদে প্রকাশিত হয়েছে যে ওপেনএআই-এর অভ্যন্তরীণ সদস্যদের মধ্যে সিইও স্যাম আলটম্যানের বিশ্বস্ততা নিয়ে সন্দেহ রয়েছে। ১০০-এর বেশি সাক্ষাতকার এবং অভ্যন্তরীণ দলিলের ভিত্তিতে, এই প্রতিবেদনে দাবি করা হয়েছে যে আলটম্যান বোর্ডকে ভুল তথ্য দিয়েছিলেন এবং নিরাপত্তা ব্যবস্থা সরিয়ে ফেলেছিলেন। পূর্বের প্রধান বিজ্ঞানী ইলিয়া সুৎসকেভারের ৭০-পৃষ্ঠার দলিলে আলটম্যানের অপবিশ্বাসযোগ্যতা বর্ণনা করা হয়েছে, যার মধ্যে GPT-4-এর বিষয়ে মিথ্যা দাবি অন্তর্ভুক্ত। অ্যানথ্রোপিকের ডারিও আমোডেই ব্যক্তিগতভাবে উল্লেখ করেছিলেন যে “ওপেনএআই-এর সমস্যা হলো স্যামই।” প্রতিবেদনটি আরও উল্লেখ করেছে যে, ওপেনএআই একটি অলাভজনক নিরাপত্তা মিশন থেকে একটি 商業তান্ত্রিক প্রতিষ্ঠানে রূপান্তরিত হয়েছে, এবং কীভাবে গুরুত্বপূর্ণ প্রোটোকলগুলি 무視 (উপেক্ষা) করা হয়েছিল। AI এবং crypto-ক্ষেত্রে now token-এর নতুন listingএবং corporate strategy-এর changes-এর over scrutiny-এর subject।

লেখক: শিয়াওবিং, শেনচাও টেকফ্লো

2023 এর শরৎকালে, ওপেনএআই-এর প্রধান বিজ্ঞানী ইলিয়া সুৎকেভার কম্পিউটারের সামনে বসে 70 পৃষ্ঠার একটি ফাইল সম্পন্ন করেন।

এই ফাইলটি Slack বার্তা, এইচআর যোগাযোগ এবং অভ্যন্তরীণ মিটিং মেমোর থেকে সংকলিত, এবং একটি প্রশ্নের উত্তর দেওয়ার জন্য মাত্র: স্যাম আলটম্যান, যিনি সম্ভবত মানব ইতিহাসের সবচেয়ে বিপজ্জনক প্রযুক্তির উপর নিয়ন্ত্রণ রাখেন, তাকে কি বিশ্বাস করা যায়?

সুটস্কেভারের উত্তরটি ফাইলের প্রথম পৃষ্ঠার প্রথম লাইনে লেখা হয়েছে, তালিকার শিরোনাম: "স্যাম একটি স্থির আচরণের প্যাটার্ন দেখিয়েছে..."

First: Lie.

আজ দুই বছর আধ বছর পর, তদন্তকারী পত্রিকাবিদ রোনান ফ্রো এবং অ্যান্ড্রু মারান্টজ দ্য নিউইয়র্কারে একটি অত্যন্ত দীর্ঘ তদন্তমূলক প্রতিবেদন প্রকাশ করেন। তারা ১০০-এরও বেশি পক্ষকে সাক্ষাৎকার করেন, আগে কখনও প্রকাশিত হয়নি এমন অভ্যন্তরীণ মেমো পান, এবং Anthropic-এর প্রতিষ্ঠাতা ডারিও অ্যামোডেইয়ের OpenAI-এর সময়কার ২০০-এরও বেশি পৃষ্ঠার ব্যক্তিগত নোট। এই কাগজপত্রগুলির মাধ্যমে যে গল্পটি গড়ে উঠেছে, তা ২০২৩-এর "প্রাসাদের কাহিনী"এর চেয়েও অনেক বেশি খারাপ: OpenAI কিভাবে মানবতার নিরাপত্তার জন্য জন্মগ্রহণকারী একটি অলাভজনক সংস্থা থেকে ধীরে ধীরে একটি 商业机器-এ পরিণত হয়েছিল, এবং প্রায় প্রতিটি নিরাপত্তা বাধা—একজনই মানুষের হাতে ধ্বংস করা।

অমোদেইয়ের নোটে উপসংহারটি আরও স্পষ্ট: "OpenAI-এর সমস্যা হলো Sam-এর নিজের সমস্যা।"

OpenAI-এর "মূল পাপ" সেটিং

এই প্রতিবেদনটির গুরুত্ব বুঝতে হলে প্রথমে বুঝতে হবে যে OpenAI কোম্পানিটি কতটা বিশেষ।

২০১৫ সালে, আল্টম্যান এবং একটি সিলিকন ভ্যালি শীর্ষস্থানীয়দের গ্রুপ কর্পোরেট ইতিহাসে প্রায় অনন্য একটি কাজ করেছিল: মানব ইতিহাসের সবচেয়ে শক্তিশালী প্রযুক্তির একটি ডেভেলপমেন্টের জন্য একটি অলাভজনক সংস্থা ব্যবহার করা। বোর্ডের দায়িত্বগুলি পরিষ্কারভাবে উল্লেখ করা হয়েছে, যেখানে নিরাপত্তা কোম্পানির সাফল্যের চেয়েও বেশি গুরুত্বপূর্ণ, এমনকি কোম্পানির অস্তিত্বের চেয়েও। সহজ ভাষায়, যদি কখনও OpenAI-এর AI বিপজ্জনক হয়ে উঠে, তবে বোর্ডের কর্তব্য হবে নিজেদেরই হাতে এই কোম্পানিটি বন্ধ করে দেওয়া।

সম্পূর্ণ আর্কিটেকচার একটি ধারণার উপর নির্ভর করে: এজিআই-এর দায়িত্বে থাকা ব্যক্তিকে অত্যন্ত সৎ হতে হবে।

যদি ভুল বাজি ধরে ফেলেন?

৭০ পৃষ্ঠার ফাইলটিই প্রতিবেদনের মূল বোমা। সুৎস্কেভার অফিসের রাজনীতি করেন না, তিনি বিশ্বের সবচেয়ে শীর্ষস্থানীয় এআই বিজ্ঞানীদের একজন। কিন্তু ২০২৩ সালের দিকে, তিনি একটি বিষয়ে আরও দৃঢ়ভাবে বিশ্বাস করতে শুরু করেন: অলটম্যান নিয়মিতভাবে প্রধান পরিচালকদের এবং পরিচালনা পর্ষদকে মিথ্যা বলছেন।

একটি নির্দিষ্ট উদাহরণ: 2022 সালের ডিসেম্বরে, অ্যালটম্যান বোর্ড মিটিংয়ে নিশ্চিত করেছিলেন যে আসন্ন GPT-4-এর অনেকগুলি ফিচার সুরক্ষা পরীক্ষা পার করেছে। বোর্ডের সদস্য টোনার অনুমোদন দলিলগুলি দেখতে চেয়েছিলেন, এবং পাইলেন যে সবচেয়ে বিতর্কিত দুটি ফিচার (ব্যবহারকারী-নির্ধারিত ফাইন-টিউনিং এবং ব্যক্তিগত সহায়ক বাস্তবায়ন) কখনও সুরক্ষা প্যানেলের অনুমোদন পায়নি।

ভারতে আরও অস্বাভাবিক ঘটনা ঘটেছে। একজন কর্মচারী একজন বোর্ড সদস্যকে "সেই উল্লঙ্ঘন" সম্পর্কে জানায়: মাইক্রোসফট প্রয়োজনীয় নিরাপত্তা পরীক্ষা সম্পন্ন না করেই ভারতে ChatGPT-এর প্রাথমিক সংস্করণটি প্রকাশ করেছিল।

সুটস্কেভার অন্য একটি বিষয়ও মেমোতে লিখেছিলেন: অল্টম্যান আগের CTO মিরা মুরাটিকে বলেছিলেন যে সুরক্ষা অনুমোদনের প্রক্রিয়াটি তেমন গুরুত্বপূর্ণ নয়, কারণ কোম্পানির আইনি প্রধান আইনজীবী এটি অনুমোদন করেছেন। মুরাটি আইনি প্রধান আইনজীবীর কাছে যান এবং তিনি উত্তর দেন: "আমি জানি না স্যাম এই ধারণাটি কোথা থেকে পেয়েছেন।"

আমোদেইয়ের ২০০ পৃষ্ঠার ব্যক্তিগত নোট

সুটস্কেভারের ফাইলটি একটি অভিযোগপত্রের মতো। আমোদেই দ্বারা রেখে যাওয়া ২০০ পাতার নোটগুলি আরও বেশি একটি সাক্ষীর মতো, যিনি ঘটনাস্থলে একটি ডায়েরি লিখেছেন।

অ্যামোডেই যে বছরগুলো OpenAI-এ সুরক্ষা পরিচালক হিসেবে কাজ করেছিলেন, সেই সময়ে তিনি দেখেছিলেন যে কোম্পানিটি বাণিজ্যিক চাপের কারণে ধাপে ধাপে পিছিয়ে যাচ্ছে। তিনি ২০১৯ সালের মাইক্রোসফটের বিনিয়োগের একটি গুরুত্বপূর্ণ বিস্তারিত নোট করেছিলেন: তিনি OpenAI-এর চার্টারে "মার্জ এবং সহায়তা" শর্তটি যোগ করেছিলেন, যার মূল বিষয় ছিল যে, যদি অন্য কোনো কোম্পানি আরও নিরাপদ AGI পথ খুঁজে পায়, তবে OpenAI-এর উচিত প্রতিযোগিতা বন্ধ করে সেই কোম্পানিকে সহায়তা করা। এটিই ছিল তার জন্য এই লেনদেনের সবচেয়ে গুরুত্বপূর্ণ নিরাপত্তা গ্যারান্টি।

অ্যামোডেই ট্রেড সাইন করার সময় একটি বিষয় লক্ষ্য করলেন: মাইক্রোসফট এই শর্তের বিরুদ্ধে ভোট দেওয়ার অধিকার পেয়েছে। এর মানে কী? যদি কখনও কোনো প্রতিদ্বন্দ্বী আরও ভালো পথ খুঁজে পায়, তবে মাইক্রোসফট শুধু একটি বাক্য বলেই ওপেনএআই-এর সহায়তার দায়িত্ব বন্ধ করে দিতে পারে। শর্তগুলি এখনও কাগজে, কিন্তু সইয়ের দিন থেকেই এগুলি অকার্যকর।

অমোদেই পরে ওপেনএআই ছেড়ে অ্যানথ্রোপিক প্রতিষ্ঠা করেন। দুটি কোম্পানির মধ্যে প্রতিযোগিতা হল এআই কিভাবে উন্নয়ন করা উচিত তার মৌলিক বিভাজনের ফলাফল।

হারিয়ে যাওয়া 20% ক্ষমতা প্রতিশ্রুতি

একটি বিস্তারিত বিষয় রিপোর্টে উল্লেখ করা হয়েছে, যা পড়ে পিঠ শীতল হয়ে যায়, যা OpenAI-এর "সুপার অ্যালাইনমেন্ট টিম" নিয়ে।

2023 এর মধ্যভাগে, অলটম্যান বার্কলির একজন ডক্টরেট ছাত্রের সাথে ইমেইল করেন, যিনি "প্রতারণামূলক সামঞ্জস্য" (AI পরীক্ষার সময় ভালো হবার ভান করে, কিন্তু বাস্তবে বাস্তবায়নের পর নিজের পথে চলে) নিয়ে গবেষণা করছিলেন, এবং বলেন যে তিনি এই সমস্যার বিষয়ে খুবই চিন্তিত, এবং 10 বিলিয়ন ডলারের একটি বৈশ্বিক গবেষণা পুরস্কার প্রতিষ্ঠা করার কথা বিবেচনা করছেন। ডক্টরেট ছাত্রটি অত্যন্ত উৎসাহিত হন, পড়াশোনা থেকে ছুটি নিয়ে OpenAI-এ যোগদান করেন।

তারপর অল্টম্যান মত পরিবর্তন করেন: বাহ্যিক পুরস্কার বন্ধ করে কোম্পানির ভিতরেই "সুপার অ্যালাইনমেন্ট টিম" গঠন করা হয়। কোম্পানি ঘোষণা করে যে, "বিদ্যমান ক্যালকুলেশন ক্ষমতার ২০%" এই টিমকে দেওয়া হবে, যার সম্ভাব্য মূল্য ১০ বিলিয়ন ডলারেরও বেশি। ঘোষণার ভাষা অত্যন্ত গুরুতর ছিল, যেখানে বলা হয়েছিল যে যদি অ্যালাইনমেন্টের সমস্যা সমাধান না করা হয়, তবে AGI-এর ফলে "মানুষের ক্ষমতা হারিয়ে যেতে পারে, এমনকি মানবজাতির বিলুপ্তি"ও ঘটতে পারে।

এই দলের নেতৃত্ব দেওয়ার জন্য নিযুক্ত জ্যান লাইকে পরে বলেন যে, এই প্রতিশ্রুতি নিজেই একটি খুব কার্যকরী "কর্মচারী ধরে রাখার টুল" ছিল।

বাস্তবতা কী? এই দলের সদস্য বা ঘনিষ্ঠভাবে যুক্ত চারজন ব্যক্তি বলেছেন যে বাস্তবে প্রদান করা ক্যালকুলেশন ক্ষমতা কোম্পানির মোট ক্যালকুলেশন ক্ষমতার মাত্র 1% থেকে 2% ছিল, এবং সেগুলো ছিল সবচেয়ে পুরনো হার্ডওয়্যার। এই দলটি পরে বিলুপ্ত করে দেওয়া হয়, এবং এর মিশনটি পূর্ণ হয়নি।

যখন প্রতিনিধিদের ওপেনএআই-এর "অস্তিত্বগত নিরাপত্তা" গবেষণার দায়িত্বে থাকা ব্যক্তিদের সাক্ষাৎকারের জন্য অনুরোধ করে, তখন কোম্পানির প্রচার বিভাগের প্রতিক্রিয়া হাসি-কান্না উৎপন্ন করে: "এটি একটি... বাস্তবিকভাবে বিদ্যমান কিছু নয়।"

অ্যালটম্যান নিজে খুব শান্ত। তিনি সাংবাদিকদের বলেন, তাঁর "সুসংগঠিত অনুভূতি অনেক প্রচলিত এআই নিরাপত্তা বিষয়ের সাথে মেলে না", কিন্তু ওপেনএআই এখনও "নিরাপত্তা প্রকল্প, বা কমপক্ষে নিরাপত্তার সাথে সম্পর্কিত প্রকল্প" করবে।

অপ্রাসঙ্গিক কেএফও এবং আগামী আইপিও

দ্য নিউইয়র্কারের প্রতিবেদন শুধু এই দিনের খারাপ খবরের অর্ধেক। একই দিনে, দ্য ইনফরমেশন আরেকটি বড় খবর প্রকাশ করে: ওপেনএআইয়ের সিএফও সারা ফ্রিয়ার এবং আলটম্যানের মধ্যে গুরুতর মতবিরোধ হয়েছে।

ফ্রায়ার তার সহকর্মীদের সাথে ব্যক্তিগতভাবে বলেছেন যে তিনি মনে করেন যে OpenAI এই বছর তাদের আইপিও-এর জন্য প্রস্তুত নয়। দুটি কারণ: সম্পন্ন করার জন্য অত্যধিক প্রক্রিয়াগত এবং সংগঠনগত কাজ, এবং Altman-এর প্রতিশ্রুতি করা 5 বছরে 6000 বিলিয়ন ডলারের কম্পিউটিং খরচের আর্থিক ঝুঁকি। তিনি নিশ্চিত নন যে OpenAI-এর আয়ের বৃদ্ধি এই প্রতিশ্রুতি পূরণের জন্য যথেষ্ট হবে।

কিন্তু অলটম্যান এই বছরের চতুর্থ ত্রৈমাসিকেই আইপিও-এ এগিয়ে যাওয়ার ইচ্ছা রাখেন।

আরও অস্বাভাবিক বিষয় হলো, ফ্রায়ার এখন সরাসরি অলটম্যানের কাছে রিপোর্ট করছেন না। ২০২৫ সালের আগস্ট থেকে, তিনি ফিজি সিমো (OpenAI-এর অ্যাপ্লিকেশন বিজনেসের CEO) এর কাছে রিপোর্ট করছেন। আর সিমো গত সপ্তাহেই স্বাস্থ্যসমস্যার কারণে অসুস্থতা ঘোষণা করেছেন। এই পরিস্থিতি বিশ্লেষণ করুন: একটি IPO-এর দিকে এগিয়ে যাচ্ছে এমন কোম্পানি, যার CEO এবং CFO-এর মধ্যে মৌলিক মতবিরোধ রয়েছে, CFO CEO-এর কাছে রিপোর্ট করছেন না, এবং CFO-এর সুপিরিয়রও বিশ্রামে আছেন।

মাইক্রোসফ্টের অভ্যন্তরীণ প্রশাসকদেরও এটি দেখে অসহ্য লাগছে, তারা বলছেন যে অলটম্যান "তথ্যকে বিকৃত করছেন, প্রতিশ্রুতি ভঙ্গ করছেন এবং ইতিমধ্যে চুক্তিবদ্ধ বিষয়গুলি পুনরায় বাতিল করছেন।" মাইক্রোসফ্টের একজন প্রশাসক এমনকি এই বাক্যটি বলেছেন: "আমি মনে করি, তিনি শেষপর্যন্ত বার্নি ম্যাডোফ বা SBF-এর মতো একজন প্রতারক হিসাবে মনে রাখা হবেন।"

অল্টম্যানের "দ্বিমুখী" চিত্র

একজন পূর্বের ওপেনএআই পরিচালনা পর্ষদ সদস্য প্রতিবেদককে আল্টম্যানের দুটি গুণ বর্ণনা করেছেন। এই বাক্যটি সম্ভবত পুরো প্রতিবেদনের সবচেয়ে কঠোর চরিত্রচিত্রণ।

এই পরিচালক বলেন, অল্টম্যানের একটি অত্যন্ত দুর্লভ গুণের সংমিশ্রণ রয়েছে: প্রতিটি মুখোমুখি আলাপে তিনি অত্যন্ত আগ্রহী যে অপর পক্ষকে খুশি করবেন এবং তাঁরা তাঁকে পছন্দ করবেন। একইসাথে, অপরকে প্রতারণা করার সম্ভাব্য পরিণতির প্রতি তাঁর একটি প্রায় সামাজিক-পারস্পরিকতাহীন অবহেলা রয়েছে।

একজন ব্যক্তির মধ্যে এই দুটি গুণ একসাথে থাকা অত্যন্ত দুর্লভ। কিন্তু একজন বিক্রেতার জন্য, এটি সবচেয়ে আদর্শ প্রতিভা।

একটি প্রতিবেদনে একটি উপমা ভালোভাবে বলা হয়েছে: জবস তাঁর "বাস্তবতা বিকৃতি ক্ষেত্র" এর জন্য বিখ্যাত, যার মাধ্যমে তিনি পুরো বিশ্বকে তাঁর দৃষ্টিভঙ্গির প্রতি বিশ্বাসী করে তুলতে পারতেন। কিন্তু জবসের মতো কেউই কখনও গ্রাহকদের বলেননি, "আপনি আমার MP3 প্লেয়ারটি কিনবেন না, তাহলে আপনার যারা ভালোবাসেন, তারা মারা যাবে।"

অল্টম্যান এই বিষয়ে এআই সম্পর্কে একই ধরনের কথা বলেছিলেন।

একজন সিইও-এর চরিত্রের সমস্যা কেন সবার জন্য ঝুঁকি?

অলটম্যান যদি শুধু একজন সাধারণ প্রযুক্তি কোম্পানির সিইও হতেন, এই অভিযোগগুলি সর্বোচ্চ একটি অসাধারণ ব্যবসায়িক গসিপ হত। কিন্তু OpenAI সাধারণ নয়।

এটি নিজের দাবি অনুযায়ী, মানব ইতিহাসের সবচেয়ে শক্তিশালী প্রযুক্তি তৈরি করছে, যা বিশ্ব অর্থনীতি এবং কর্মবাহী বাজারকে পুনর্গঠন করতে পারে (OpenAI সম্প্রতি AI-এর কারণে বেকারত্বের সমস্যা নিয়ে একটি নীতিমালা সাদাকাগজ প্রকাশ করেছে), এবং এটি বড় পরিসরের জৈব-রাসায়নিক অস্ত্র তৈরি বা সাইবার আক্রমণ চালানোর জন্যও ব্যবহার করা যেতে পারে।

সমস্ত নিরাপত্তা গার্ডরেল কেবল নামমাত্র। প্রতিষ্ঠাতার অলাভজনক মিশন আইপিও-এর জন্য পিছিয়ে গেছে। পূর্বের প্রধান বিজ্ঞানী এবং পূর্বের নিরাপত্তা দায়িত্বপ্রাপ্ত ব্যক্তি উভয়েই সিইওকে "বিশ্বাসযোগ্য নয়" বলে মনে করেন। অংশীদাররা সিইওকে SBF-এর সাথে তুলনা করেছেন। এই পরিস্থিতিতে, এই সিইও কীভাবে এক-sidedভাবে মানবজাতির ভাগ্যকে পরিবর্তন করতে পারে এমন এআই মডেলটি কখন প্রকাশ করা হবে, তা সিদ্ধান্ত নিচ্ছেন?

গ্যারি মার্কাস (নিউ ইয়র্ক বিশ্ববিদ্যালয়ের এআই অধ্যাপক, দীর্ঘদিনের এআই নিরাপত্তা পক্ষপাতী) প্রতিবেদনটি পড়ে একটি বাক্য লিখেছেন: যদি ভবিষ্যতের কোনো ওপেনএআই মডেল বৃহৎ পরিসরের জৈব-রাসায়নিক অস্ত্র তৈরি করে বা দুর্ভোগজনক নেটওয়ার্ক আক্রমণ চালায়, তাহলে আপনি কি সত্যিই আলটম্যানকে একা সিদ্ধান্ত নেওয়ার অধিকার দেবেন যে এটি প্রকাশ করা হবে কিনা?

OpenAI-এর প্রতিক্রিয়া ছিল সংক্ষিপ্ত: "এই নিবন্ধের বেশিরভাগ অংশই পূর্বে প্রকাশিত ঘটনাগুলির পুনরাবৃত্তি, অজ্ঞাত উৎস এবং নির্বাচিত গল্পের মাধ্যমে, যা স্পষ্টতই ব্যক্তিগত উদ্দেশ্য নিয়ে চলে।"

অ্যালটম্যানের প্রতিক্রিয়ার ধরন: কোনো অভিযোগের বিষয়ে প্রতিক্রিয়া নেওয়া হয়নি, মেমোর সত্যতা অস্বীকার করা হয়নি, শুধুমাত্র উদ্দেশ্যকে প্রশ্নবিদ্ধ করা হয়েছে।

একটি অলাভজনক কর্পোরেশনের শবের উপর দিয়ে একটি মানি ট্রি গজিয়ে উঠল

OpenAI-এর দশক, একটি গল্পের সারাংশ হিসাবে এভাবে লেখা হয়েছে:

একটি কিছু মানুষ যারা এআই-এর ঝুঁকি নিয়ে উদ্বিগ্ন ছিল, একটি মিশন-ভিত্তিক অলাভজনক সংস্থা প্রতিষ্ঠা করে। সংস্থাটি অসাধারণ প্রযুক্তিগত উত্কর্ষ অর্জন করে। এই উত্কর্ষটি বিপুল মূলধন আকর্ষণ করে। মূলধনকে রিটার্ন দরকার। মিশনটি ধীরে ধীরে পিছিয়ে যায়। সুরক্ষা দলটি বিলুপ্ত হয়ে যায়। প্রশ্ন তোলা মানুষদের বহিষ্কার করা হয়। অলাভজনক গঠনটি লাভজনক সংস্থায় পরিণত হয়। আগে কোম্পানি বন্ধ করার ক্ষমতা যেমন বোর্ডের ছিল, এখন সেখানে CEO-এর সমর্থকদের বসিয়ে দেওয়া হয়েছে। আগে ২০% ক্যালকুলেশন ক্ষমতা মানবতার নিরাপত্তা রক্ষার জন্য বরাদ্দ করার প্রতিশ্রুতি দেওয়া হয়েছিল, কিন্তু এখন PR-এরা বলছে "এটি বাস্তবের সঙ্গে কোনোভাবেই মেলেনা"।

গল্পের নায়ক, শতাধিক সাক্ষী তাকে একই লেবেল দিয়েছিলেন: "সত্যের বাঁধন থেকে মুক্ত।"

তিনি এই কোম্পানিটিকে আইপিও করার জন্য প্রস্তুত হচ্ছেন, যার মূল্যায়ন 8500 বিলিয়ন ডলারের বেশি।

এই তথ্যটি দ্য নিউইয়র্কার, সেমাফোর, টেক ব্রিউ, গিজমোডো, বিজনেস ইনসাইডার, দ্য ইনফরমেশন সহ বিভিন্ন মিডিয়ার প্রকাশিত প্রতিবেদন থেকে সংগৃহীত।

দাবিত্যাগ: এই পৃষ্ঠার তথ্য তৃতীয় পক্ষের কাছ থেকে প্রাপ্ত হতে পারে এবং অগত্যা KuCoin এর মতামত বা মতামত প্রতিফলিত করে না। এই বিষয়বস্তু শুধুমাত্র সাধারণ তথ্যগত উদ্দেশ্যে প্রদান করা হয়, কোন ধরনের প্রতিনিধিত্ব বা ওয়ারেন্টি ছাড়াই, বা এটিকে আর্থিক বা বিনিয়োগ পরামর্শ হিসাবে বোঝানো হবে না। KuCoin কোনো ত্রুটি বা বাদ পড়ার জন্য বা এই তথ্য ব্যবহারের ফলে যে কোনো ফলাফলের জন্য দায়ী থাকবে না। ডিজিটাল সম্পদে বিনিয়োগ ঝুঁকিপূর্ণ হতে পারে। আপনার নিজের আর্থিক পরিস্থিতির উপর ভিত্তি করে একটি পণ্যের ঝুঁকি এবং আপনার ঝুঁকি সহনশীলতা সাবধানে মূল্যায়ন করুন। আরও তথ্যের জন্য, অনুগ্রহ করে আমাদের ব্যবহারের শর্তাবলী এবং ঝুঁকি প্রকাশ পড়ুন।