Vitalik Buterin ha dicho que su donación anterior al Future of Life Institute (FLI) no significa que esté de acuerdo con la postura política actual del grupo sobre la IA.
Según él, grandes campañas políticas sobre la seguridad de la IA podrían conducir a resultados autoritarios o a una reacción global si los gobiernos y las corporaciones luchan por el control de la tecnología.
Buterin aclara el vínculo con FLI
El cofundador de ethereum explicó en una publicación extensa en X que se involucró con FLI después de que los creadores de Shiba Inu (SHIB) le enviaran la mitad de su oferta para ayudar a promover la moneda meme. Poco después, el valor nominal de los tokens se disparó, incluso superando los $1 mil millones.
Buterin dijo que creía que la burbuja estallaría rápidamente, por lo que se apresuró a intercambiar parte del SHIB por ETH, donando los fondos a varias causas. También entregó la mitad del SHIB restante a CryptoRelief, un esfuerzo de ayuda médica centrado en la India, y la otra mitad a FLI.
El instituto finalmente retiró alrededor de $500 millones de la donación de SHIB, mucho más de lo que Buterin consideraba posible, dado el bajo volumen de trading del token en ese momento. El desarrollador afirma que se convenció de FLI basándose en su hoja de ruta, que abordaba riesgos existenciales en bioseguridad, nuclear e IA, así como lo que llamó sus “iniciativas pro-paz y pro-epistémicas”.
Sin embargo, según él, la organización ha cambiado de rumbo desde entonces, centrándose en cambio en la acción cultural y política. Justificaron el cambio diciendo que la situación ya no era la misma que en 2021, con la proliferación de la inteligencia general artificial que exige este cambio para contrarrestar mejor los fondos de lobbying de las grandes empresas de IA.
Preocupaciones sobre enfoques políticos
Buterin insistió que centrarse en campañas regulatorias o políticas para controlar el desarrollo de la IA podría producir sistemas frágiles o estructuras de poder centralizadas.
“Mi preocupación es que la acción política coordinada a gran escala con grandes fondos es algo que puede conducir fácilmente a resultados no intencionados, provocar reacciones adversas y resolver problemas de una manera que es tanto autoritaria como frágil, incluso si no era la intención original,” escribió.
El hombre de 32 años dijo que limitar las herramientas de biosíntesis o los modelos de IA imponiendo restricciones “para que se nieguen a crear cosas malas” era una solución débil que podía evitarse fácilmente. Añadió que tales estrategias también podrían llevar a gobiernos a prohibir sistemas de código abierto o respaldar a una sola empresa “aprobada” para asumir el desarrollo de la IA.
“Enfoques como este se desatan MUY FÁCILMENTE en contra,” dijo Buterin. “Hacen que el resto del mundo sea tu enemigo.”
Su propuesta es un enfoque tecnológico centrado en desarrollar herramientas defensivas para ayudar a la sociedad a mantenerse segura en un mundo con tecnología poderosa. Señaló que sus decisiones de financiación más recientes incluyen aproximadamente 40 millones de dólares para investigación destinada a construir hardware y sistemas seguros que podrían mejorar la privacidad digital y la ciberseguridad.
La publicación Vitalik Buterin se distancia del impulso de FLI sobre la seguridad de la IA apareció primero en CryptoPotato.
