Binigyan ng OpenAI ang EU ng pag-access sa advanced na cybersecurity AI model na GPT-5.5-Cyber

iconCryptoBriefing
I-share
Share IconShare IconShare IconShare IconShare IconShare IconCopy
AI summary iconSummary

expand icon
Binibigyan ni OpenAI ang mga regulador ng EU ng pag-access sa GPT-5.5-Cyber, isang pag-unlad sa AI + balita sa crypto na maaaring magbago ng paraan ng pag-e-evaluate ng mga frontier model. Ang AI na nakatuon sa cybersecurity ay makakatuklas ng mga kahinaan sa software at makakapag-simula ng mga pagsalakay, kabilang ang mga senaryo ng crypto hack. Kumuha ito ng isang buong pagsimula ng network breach na tumutugma sa Mythos ni Anthropic. Gamitin ng AI Act ang model na ito upang mag-evaluate ng mga panganib, na may DeFi at crypto protocols bilang layunin. Ang balita tungkol sa AI + crypto ay nag-trigger ng 5% pagtaas sa mga token na may kaugnayan sa AI.

Nasa aktibong pag-uusap ang OpenAI sa European Commission upang bigyan ng access ang pinakamalalim na AI model nito na nakatuon sa cybersecurity, na may kakayahang makita ang mga vulnerability sa software. Ang hakbang na ito ay nagpaposisyon sa maker ng ChatGPT bilang unang malaking AI lab na buksan ang kanilang cyber capabilities sa mga regulador ng EU, na nagsisikap ng ilang linggo upang masuri ang mga panganib sa seguridad na dulot ng mga frontier AI system.

Tama ang oras. Ang Anthropic, pangunahing kalaban ni OpenAI sa patimpalak ng AI na may pagtitiyak sa kaligtasan, ay hindi pa nagbigay ng pahintulot sa EU na makapag-access sa kanilang sariling cybersecurity model, ang Mythos.

Ano ang tunay na ginagawa ng model

Ang cybersecurity model ng OpenAI, na tinatawag na GPT-5.5-Cyber, ay espesyal na disenyo upang makakita ng mga kahinaan sa software at makapagsimula ng mga pagsalakay.

Noong Mayo 1, natapos ng GPT-5.5 ang isang buong simulated corporate network hack, gawing ikalawang AI system na makamit ang ganitong tagumpay. Ang unang sistema ay ang Mythos ng Anthropic. Ang dalawang modelo ay tila magkakapareho na sa kanilang kakayahang masira ang simulated enterprise environments.

Sa ilalim ng AI Act, kailangan ng mga regulador sa Europe na suriin ang mga panganib sa cybersecurity na dinala ng mga advanced na AI model. Sa pamamagitan ng pagbibigay ng direkta access, binubuksan ni OpenAI ang daan para sa Komisyon na subukan ang kanyang pinakamakapangyarihang cyber tool.

Bakit dapat maging babala ang crypto

Lumampas sa $1.5 bilyon ang mga pinansyal na pagkawala mula sa mga crypto hack noong 2025. Kung ang mga modelo ng AI ay makakapag-simula ng mga hack sa corporate network, maaari rin silang gamitin para sa mga smart contract, bridge protocols, at DeFi platforms.

Ang mga nakaraang buwan ay nakakita na ng mga ulat tungkol sa mga scam na nagpapakita ng AI agents para sa pagkakawala ng crypto. Ang kalagayan ng banta ay umuunlad sa real time, kasama ang mga attacker na gumagamit ng mga AI tool upang automatikong gawin ang phishing, social engineering, at paghahanap ng exploit.

Nakita ng mga token na kaugnay sa AI ang pagtaas ng 5% sa presyo pagkatapos ng pagpapahayag ng mga pag-unlad sa AI para sa cybersecurity.

Ang paligsahan sa chess na regulasyon

Ang pagtawag ni OpenAI sa EU ay tungkol sa parehong estratehiya at seguridad. Ang AI Act ay ang pinakakomprehensibong regulatoryong framework para sa artificial intelligence sa anumang bahagi ng mundo. Sa pamamagitan ng pagbibigay ng pag-access sa kanyang pinakamakapangyarihang cyber model, nagtataya ang OpenAI nang maingat: nakakamit ng kumpanya ang pagpapakita ng transparensya at pagbuo ng mabuting ugnayan sa mga regulador, habang nakakakuha ng impluwensya kung paano hahatiin at reregulahin ng EU ang mga AI system na may offensive cyber capabilities.

Para sa Anthropic, kung magwawakas ang EU sa pagbuo ng mga gabay sa cybersecurity na AI batay sa karanasan nito sa modelo ng OpenAI, maaaring masusukat ang Anthropic sa isang framework na walang bahid siya sa pagbuo.

Ang $1.5 bilyon na nawala sa mga crypto hack noong 2025 ay ang batayan. Dapat maging mas mabuting manood ang sektor ng DeFi, dahil ang mga proyekto tulad ng Fetch.ai ay nagsimula na mag-integrate ng mga teknolohiya ng AI para sa automatic security audits.

Disclaimer: Ang information sa page na ito ay maaaring nakuha mula sa mga third party at hindi necessary na nagre-reflect sa mga pananaw o opinyon ng KuCoin. Ibinigay ang content na ito para sa mga pangkalahatang informational purpose lang, nang walang anumang representation o warranty ng anumang uri, at hindi rin ito dapat ipakahulugan bilang financial o investment advice. Hindi mananagot ang KuCoin para sa anumang error o omission, o para sa anumang outcome na magreresulta mula sa paggamit ng information na ito. Maaaring maging risky ang mga investment sa mga digital asset. Pakisuri nang maigi ang mga risk ng isang produkto at ang risk tolerance mo batay sa iyong sariling kalagayang pinansyal. Para sa higit pang information, mag-refer sa aming Terms ng Paggamit at Disclosure ng Risk.