Original | Odaily Planet Daily (@OdailyChina)
Author | DingDang (@XiaMiPP)

Ang sikat na OpenClaw ay nagsimulang magbigay ng suporta sa privacy AI, at tila muli nahanap ng bagong direksyon sa pagpapalaganap ang “mga maliit na halaman sa crypto na nasa desperado.”
Sa ilalim ng ganitong konteksto ng pananalita, isang hanay ng mga proyekto na may kaugnayan sa privacy computing at AI Agent infrastructure ay nagsimulang muling mababawi ang kanilang pansin sa merkado. Ayon sa pag-aayos ng Odaily Star Daily, sa proseso ng pagtaas ng diskusyon, mayroon nang ilang proyekto na naging posibleng tagapagmanipula.
VVV (#133)
Ang Venice ay isang AI-generated platform na nakatuon sa no-censorship at privacy, na inilalayong maging decentralized na bersyon ng ChatGPT. Ang pagkakaroon ng hype tungkol sa privacy AI ay nagsimula mula sa Venice. Dahil kinilala ng OpenClaw ang Venice sa kanilang opisyal na dokumentasyon, ngunit inalis naman ito sa loob ng 24 oras. Kahit na maaaring tanggalin ang rekomendasyon, ang aksyon na ito ay nagbigay-daan sa higit pang mga tao na pansinin ang Venice at ang kanilang privacy-first na katangian.
Sa pagkakaiba sa karamihan ng mga proyekto sa AI, ang pangunahing kuwento ng Venice ay hindi ang kakayahan ng AI model, kundi ang privacy mismo. Sa ilalim ng pagpapalakas ng pagpapaliwanag ng nilalaman sa mga pangunahing AI platform at patuloy na pagkumpuni ng mga kontrobersya tungkol sa pagkawala ng AI data at pagtrato ng model, ang ganitong posisyon sa produkto na “hindi ii-record, hindi i-e-evaluate” ay direktang tumutok sa pinakamalalim na halaga ng komunidad sa cryptocurrency.
Sa panahon ng mabilis na paglalago ng AI Agent, ang Venice ay tumpak na nagsasagawa ng “kabutihang panahon” na ito. Mas kakaibang bagay, ang team ng Venice ay aktibong nagpapaliit ng suplay ng VVV token upang bawasan ang inflation. Ang pagtaas ng pangangailangan kasama ang pagbawas ng suplay ay dagdag pa sa positibong pag-asa sa VVV token.
Basahin ang referensya:《OpenClaw ay sumusuporta sa Venice.ai, tumataas ang token na VVV ng higit sa 500% noong Enero》
NEAR (#43)
Ang Near Protocol, isang matandang blockchain project na kilala sa mataas na performance, ay nagpapakita ng aktibong pagtugon sa pagbaha ng AI. Hindi na ito naglalayon lamang sa TPS at mababang gas bilang "tradisyonal na L1", kundi unti-unting binabago ang pagsasalaysay nito patungo sa execution layer at infrastructure para sa pagbabayad sa panahon ng AI Agent, upang makahanap ng bagong kuwento ng paglago sa bagong siklo ng teknolohiya.
Simula noong 2025, pinagsikapang malakas ang NEAR Intents (system ng intent), na nagpapahintulot sa mga gumagamit o AI agents na ipahayag lamang ang “huling nais na resulta”, habang ang back-end ay awtomatikong nagpapatupad ng kumplikadong mga aksyon sa higit sa 35+ na chain, nang walang kailangang manu-manong i-bridge, palitan ang wallet, o pamahalaan ang routing.
Noong Pebrero 25, 2026, inilunsad ng NEAR ang Confidential Intents bilang pag-upgrade sa kanilang intent system. Ang bersyon na ito ay nagdudulot ng kakayahan sa privacy computing sa orihinal na intent execution framework, gamit ang privacy sharding mechanism ng Near kasama ang trusted execution environment (TEE), upang maprotektahan ang mga mahahalagang detalye sa proseso ng cross-chain transaction tulad ng path ng exchange, laki ng transaksyon, o tiyak na estratehiya. Gayunpaman, hindi ito tulad ng Zcash o Monero na nagpapakilala ng mandatory privacy sa lahat ng transaksyon; kundi ito ay nagdaragdag ng isang opsyonal na layer ng privacy protection sa intent execution. Ang pangunahing layunin nito ay hindi ang anonimisasyon ng transaksyon, kundi ang pagpigil sa MEV, front-running, at sandwich attacks na mga on-chain arbitrage activities, upang gawing mas ligtas ang pagpapatupad ng transaksyon.
Maaaring maging pangunahing “gagamit” ng blockchain ang mga AI agent sa hinaharap, na magkakaroon ng sariling ari-arian, magtatagpo ng mga transaksyon sa iba’t ibang chain, magpapatupad ng mga estratehiya, at kahit magkakoordinasyon sa isa’t isa. Sa ganitong pananaw, kailangan ng blockchain na harapin ang mga mataas na kadalian ng transaksyon, at magbigay din ng kakayahan sa verifiable execution, privacy computing, at cross-chain coordination.
Ang kasalukuyang layout ng Near ay nagpapalawak sa imahinasyong ito. Sinusubukang itayo ang isang bukas na network na makakatulong sa pagpapatakbo ng mga AI agent sa mga kumplikadong gawain habang pinapanatili ang pagkakamaliwanag at kaligtasan ng proseso. Sa ilalim ng patuloy na pag-atake ng alon ng AI, ang pagbabagong ito ay maaaring ituring bilang isang aktibong pagtanggap sa bagong kuwento, o bilang isang matandang public blockchain na nagrerebisa sa sarili sa panahon ng bagong siklo.
SAHARA (#295)
Ang pangunahang layunin ng Sahara AI ay bumuo ng isang decentralized, transparent, at ligtas na AI ecosystem na gawing mas patas at kapani-paniwala ang proseso ng pagbuo, pag-train, pag-deploy, at komersyalisasyon ng AI. Ang proyekto ay nakatuon sa paglutas ng mga problema na kinakaharap ng kasalukuyang industriya ng AI tulad ng privacy ng data, algorithmic bias, at hindi malinaw na pagmamay-ari ng model.
Dahil sa pag-usbong ng AI Agent, umiiral ng isang bagong problema: sino ang may-ari ng mga data, model, at kakayahan na ginagamit ng mga Agent na ito? Sa kasalukuyang istruktura ng industriya ng AI, hindi pa lubos na nalulutas ang tanong na ito. Ang mga data na kailangan para sa pagtatrain ng model ay karaniwang galing sa maraming nagkakaisang tagapag-ambag, ngunit ang mga kita ay malalim na nakikonsentrado sa ilang mga kumpanya ng AI; kahit na may kakayahan ang mga developer ng model, kadalasan ay nakasalalay sila sa mga platform ecosystem; at habang nagsisimula nang awtomatikong gamitin ng AI Agent ang mga model, data, at mga kasangkapan, mas kumplikado ang buong chain ng halaga. Kung walang malinaw na mekanismo para sa pagtukoy ng karapatan at paghahati ng kita, maaaring paulit-ulit ng hinaharap na ekonomiya ng AI ang landas ng Web2: ang data ay nasa pagmamay-ari ng user, ngunit ang halaga ay kinuha ng platform.
Ang Sahara AI ay nagtatangkang magtatag ng mga bagong patakaran sa seksyong ito. Ang ClawGuard security system nito ay nagbibigay ng mapagkakatiwalaang seguridad sa mga AI agent upang siguraduhing ligtas silang gumana sa loob ng mga itinakdang patakaran, habang ang Data Service Platform (DSP) ay nagpapahintulot sa mga user na makakuha ng token incentives sa pamamagitan ng pag-annotate at pagkontribyo ng AI training data, at maaaring magbuo ng isang decentralize na data market. Sa ilalim ng mekanismong ito, ang mga tagapagkontribyo ng data ay hindi lamang nakikilahok sa proseso ng pag-train ng AI model, kundi nakakakuha rin ng patuloy na kita kapag ginagamit ang kanilang data, samantalang ang platform ay nagpapatupad ng on-chain mechanism upang siguraduhin ang kalidad ng data at proteksyon sa privacy.
PHA (#601)
Ang Phala Network ay isang privacy smart contract platform na binuo sa pamamagitan ng Substrate, na naglalayong magbigay ng mga serbisyo ng verifiable privacy-preserving computation para sa Web3 applications. Upang maunawaan kung bakit makikinabang ang Phala sa pagtaas ng pagkakaroon ng AI Agent, kailangan muna sagutin ang isang mas pangunahing tanong: Ano ang mga basehan na kinakailangan ng pagpapatakbo ng AI Agent?
Kung ihihiwalay ang kasalukuyang Agent ecosystem, ang kanilang teknikal na stack ay maaaring hatiin sa ilang antas. Ang pinakamataas ay ang model layer, na binubuo ng iba’t ibang malalaking language model o inference model, tulad ng OpenAI, Claude, at isang serye ng open-source models; sa ilalim nito ay ang Agent framework layer, na kabilang ang mga tool tulad ng LangChain, AutoGPT, at OpenClaw, na responsable sa pag-organisa ng mga gawain, pag-schedule ng mga model, at pagtawag sa mga panlabas na tool; sa ilalim naman nito ay ang execution environment layer, kung saan tumatakbo ang code ng Agent, tinatawag ang API, at isinasagawa ang mga automated task; mayroon ding payment at identity layer, na nagdadala ng pagtrato sa pagbabayad, identity, at reputation system sa pagitan ng mga Agent; at sa pinakamababang antas ay ang compute at privacy layer, na responsable sa pagpapanatili ng pagkakatiyak sa proseso ng computation at pagtatago ng data mula sa pagkakaleak.
Batay sa istrukturang ito, ang Phala ay nasa posisyon na tumatagos sa antas ng execution environment at antas ng privacy ng computing power. Ang kanyang pangunahing teknolohiya—ang confidential computing network batay sa TEE (Trusted Execution Environment)—ay nagpapahintulot sa AI Agent na magsagawa ng mga programa sa labas ng chain nang ligtas, habang pinapanatili ang pagkakaroon ng verifiable na proseso ng computation at pag-iwas sa pananakop ng data mula sa panlabas. Mahalaga ang punto na ito sa ekonomiya ng Agent.
Sa mga partikular na aplikasyon ng ekosistema, nagsimula na ang Phala na magkaroon ng pagkakaisa sa mga proyekto ng AI Agent. Halimbawa, nagtutulungan ang Phala at ai16z upang bumuo ng TEE component para sa kanilang Eliza multi-agent framework, na direktang i-integrate ang teknolohiya ng trusted execution sa environment ng pagpapatakbo ng Agent; samantala, ilang proyekto ng AI Agent na naglalabas ng token (tulad ng aiPool) ay gumagamit din ng teknolohiya ng TEE ng Phala para sa pamamahala ng private key at mga asset sa chain.
Sa hinaharap, habang ang AI Agent ay mula sa “mga chat tool” ay umuunlad bilang mga digital na entidad na kayang magkaroon ng pondo, magpapatupad ng mga transaksyon, o kaya ay magpapatakbo ng mga protokolo, ang ligtas na pagsasagawa ng kapaligiran ay magiging isang mahalagang infrastruktura sa buong ecosystem ng Agent, at ang Phala ay nagtatangkang manatili sa posisyong ito.
Wakas
Sa pagrereview ng mga proyekto na ito, isang interesanteng natuklasan ay: ang mga token na ito ay nagsimula nang umakyat nang maaga, mas maaga pa kaysa sa mga rekomendasyon sa loob ng dalawang araw na ito. Ibig sabihin, bago pa man ipakilala ni Venice ang “privacy AI,” mayroon nang bahagyang pondo sa merkado na nakatutok na sa direksyong ito, ngunit wala pa kasing malinaw na kuwento na nag- trigger. Ang rekomendasyon kay OpenClaw ay kagaya lamang ng isang pagsusulot na nag-ignite sa atensyon.
Sa katotohanan, anuman ang a16z o Delphi Digital, ang kanilang taunang report sa pag-aaral at pag-invest noong 2025 ay isinama ang privacy at AI bilang mga priority sector para sa 2026. Gayunpaman, kapag ang mga makro na pagtataya na ito ay talagang napupunta sa merkado, kadalasan ay kailangan ng isang tiyak na pangyayari upang makapag-trigger ng pagkakasundo. At sa simula ng 2026, dumating sa ating harapan ang privacy at AI bilang isang pinagsamang anyo.
Kung ito ay magiging sumusunod na pangmatagalang trend o muli pang pansamantalang theme炒作, kailangan pa ng panahon upang makamit ang sagot.




