ChainCatcherの情報によると、Vitalik Buterinは、AI企業Anthropicが「完全自律型武器の開発を行わない」および「米国における大規模監視を行わない」という2つの倫理的基準を守り抜く決意を称賛した。Vitalikは、理想的な世界では、このような高リスクアプリケーションは、オープンソースLLMのアクセスレベル(つまり、すべての人が平等に公開的にアクセスできるレベル)に限定されるべきだと考えている。たとえ10%の進歩でも、自律型武器やプライバシー侵害のリスクを軽減し、AIのより安全な発展を促進できるという。 以前の情報によると、五角庁は最近、Anthropicとの協力を断念する可能性を示唆し、その結果として2億ドルの契約を失う可能性がある。これは、Anthropicが軍事用途向けに人間の介入なしのAI技術を提供することを拒否したためである。
ビタリク・ブテリン、大規模監視に対するAnthropicの倫理的立場を称賛
Chaincatcher共有






ビタリク・ブテリンは、AI企業Anthropicが大規模監視や自律兵器に対する倫理的立場を取ったことを称賛し、高リスクAIをオープンソースモデルに制限することでリスクを軽減できると提案した。Anthropicが人間の監視なしに軍事用途のAIを提供することを拒否した後、ペンタゴンは2億ドルの契約を打ち切ると警告したと報じられている。この動きは、AIと暗号通貨のニュースと政府の暗号通貨規制との間の継続的な対立を浮き彫りにしている。
出典:原文を表示
免責事項: 本ページの情報はサードパーティからのものであり、必ずしもKuCoinの見解や意見を反映しているわけではありません。この内容は一般的な情報提供のみを目的として提供されており、いかなる種類の表明や保証もなく、金融または投資助言として解釈されるものでもありません。KuCoinは誤記や脱落、またはこの情報の使用に起因するいかなる結果に対しても責任を負いません。
デジタル資産への投資にはリスクが伴います。商品のリスクとリスク許容度をご自身の財務状況に基づいて慎重に評価してください。詳しくは利用規約およびリスク開示を参照してください。