Ayer por la noche, el nuevo referente en IA Anthropic (en adelante, simplemente A社) no lanzó un nuevo modelo de Claude, sino que presentó algo que parece particularmente «aburrido»: The Anthropic Institute (Instituto Anthropic, abreviado como TAI).
En comparación con la Harness Engineering, popular en 2026, los problemas que TAI busca resolver son más ambiciosos. Según la agenda de investigación publicada por Anthropic (anthropic-institute-agenda), TAI se centra en cuatro áreas: difusión económica, amenazas y resiliencia, sistemas de IA en aplicaciones prácticas, e investigación impulsada por IA. TAI también ha lanzado una convocatoria global para reclutar investigadores que trabajen juntos en la resolución de estos problemas.

(Fuente de la imagen: X@Anthropic oficial)
Es decir, la empresa A (abreviatura de Anthropic) creó una organización interna dedicada principalmente a investigar cómo los humanos interactúan con la IA:
- ¿Cómo afectará la inteligencia artificial al empleo y a la economía?
- ¿Qué nuevos riesgos de seguridad traerá?
- ¿Cambiarán el comportamiento y el juicio de los humanos después de usar realmente la IA?
- Cuando la IA comienza a ayudar a desarrollar IA más potente, ¿cómo se debe comprender y regular este proceso de aceleración?
Muchos lectores podrían considerar esto solo un movimiento habitual de una empresa de IA, pero Lei Technology cree que podría ser el movimiento más relevante de A Social recientemente. La influencia positiva de TAI en la industria de la IA y en la humanidad es comparable a la creencia de valores que Google planteó en su día con «no ser malvado» para la industria de Internet. Por eso, Lei Technology AGI afirma que se trata de una «publicación» tan significativa como una actualización importante del modelo.
La IA tiene un impacto profundo en la economía: no solo los empleos de los trabajadores
La principal línea de investigación de TAI es la Economic Diffusion.
Al revisar las tres primeras revoluciones industriales de la historia humana, ya sea la lanzadera de Jenny, las rugientes máquinas de vapor, o posteriormente la electricidad y las líneas de ensamblaje, lo que sustituyeron fue esencialmente trabajo físico barato y repetitivo. Sin embargo, la cuarta revolución industrial impulsada por la IA es radicalmente diferente, ya que entra directamente en el ámbito del trabajo intelectual en el que los humanos más se enorgullecen.
Sin embargo, TAI señala la contradicción fundamental: las herramientas se han actualizado, pero la situación de los trabajadores ha empeorado.
En la investigación, TAI menciona que si en el futuro tres personas pueden hacer el trabajo que antes realizaban 300, ¿cómo se transformaría realmente esta empresa?
Los diseñadores pueden usar IA para resolver automáticamente las capas y recursos más繁琐, los programadores pueden usar IA para Vibe Coding... Suponiendo que la IA aumente la eficiencia laboral en un 75%, esto no reducirá el horario laboral humano de 8 horas (o incluso 996) a 2 horas; por el contrario, los humanos podrían necesitar hacer cinco veces más trabajo.
TAI se enfoca en la nueva lógica de que «con la IA, tu carga de trabajo se duplicará o triplicará». Para cuantificar esta situación, TAI ha introducido un nuevo término: el Índice Económico Anthropic. A Society indica que no solo publicará artículos académicos poco seguidos, sino que planea revelar estos datos reales y decirle claramente a la humanidad: ¿en qué industrias específicas está la IA sustituyendo silenciosamente puestos que antes pertenecían a humanos? ¿Serán los recién llegados eliminados desde el momento en que comienzan?

(Foto cortesía de IA generada)
Además, TAI ha llevado esta cuenta al mundo real. Todos sabemos que los grandes modelos son una "bestia devoradora de dinero" que nunca se sacia; cada vez que utilizamos IA para generar texto, imágenes, videos o incluso hacer una simple pregunta, consumimos una gran cantidad de tokens. Los tokens, en su base, son potencia de cómputo; la potencia de cómputo, a su vez, se basa en chips, almacenamiento y electricidad, y si profundizamos aún más, incluye emisiones de carbono, capital, entre otros. Los recursos siempre son limitados, y cuando la sociedad dirige una cantidad masiva de recursos hacia la IA, otros sectores必然会 sufrir consecuencias.
En 2026, la sensación más notable fue que la escasez de memoria y almacenamiento causada por la IA llevó directamente a aumentos generalizados en los precios de los productos electrónicos de consumo, e incluso obligó a los fabricantes de teléfonos a reducir su disposición para lanzar nuevos modelos. Sin embargo, al mismo tiempo, todos los fabricantes de teléfonos confiaban en la IA para redefinir la lógica de sus productos y extender el ciclo de vida de los teléfonos; el teléfono nativo de IA de OpenAI ya está en la agenda. Cuando todos se benefician de la IA, más industrias se ven profundamente afectadas por ella, tanto positiva como negativamente.
Y TAI utiliza el "índice económico" para cuantificar el impacto de la IA en la economía, transformando la percepción abstracta en un modelo de datos: solo al clarificar el problema es posible resolverlo.
Crisis final: la humanidad está «externalizando» su propio cerebro
Si perder el empleo es como cortar con un cuchillo lento, entonces la transformación que la IA provoca en el pensamiento humano es un daño directo.
El primero en sufrir será sin duda internet. No es difícil darse cuenta de que hoy en día internet se está convirtiendo en una «montaña de mierda»: antes, al buscar guías de viaje, era fácil encontrar muchos posts con consejos sobre cómo evitar trampas y sorpresas desagradables; ahora, todo es contenido generado por IA que parece bien diseñado y estéticamente atractivo, pero que simplemente fabrica tonterías con toda seriedad.
Lo que es aún más grave es que la IA ha reducido a cero el umbral para las industrias grises: con IA se pueden realizar deepfakes para difamar, clonar la voz de familiares para cometer estafas telefónicas, y los estafadores solo necesitan quemar algunos Token para destruir la vida de personas comunes.
TAI también ha prestado atención a una crisis más profunda: la IA está haciendo que los humanos se vuelvan cada vez más «tontos» sin que nos demos cuenta.
Anteriormente, algunos usuarios chinos vieron hongos silvestres desconocidos en la naturaleza, tomaron una foto y la enviaron a una IA preguntando: «¿Se puede comer esto?»; la IA, con toda seriedad, identificó un hongo altamente tóxico como un «delicioso hongo comestible». También hubo un niño que le mostró a la IA una trampa para ratas y preguntó qué era; la IA analizó solemnemente que se trataba de un «juguetito de kart abandonado, cuadrado y con estructura metálica», y cuando el niño, curioso, lo tocó, se quedó el dedo atrapado.
Estas noticias suenan como chistes de mal gusto, pero revelan un fenómeno: la característica más destacada de la IA no es la inteligencia, sino la «seguridad misteriosa». La IA nunca podrá lograr una precisión del 100%; el modelo más reciente de Google Gemini alcanza aproximadamente un 91% de precisión factual, lo cual ya es un nivel elevado. Sin embargo, muchos usuarios, de forma imperceptible mientras usan la IA, han dejado de pensar y han adoptado la costumbre de «externalizar» todas sus decisiones a una cadena de código.
Para esto, TAI planteó una pregunta reflexiva: cuando una gran parte de la sociedad busque consejos únicamente en dos o tres modelos grandes, ¿cómo se volverá homogénea la forma en que la humanidad piensa y resuelve problemas? Crees que estás utilizando herramientas de IA para aumentar la productividad y el nivel cognitivo, pero en realidad estás «externalizando tu cerebro». En otras palabras, si todos comienzan a depender de la IA, es muy probable que la humanidad pierda su capacidad de pensar por sí misma, convirtiendo los cerebros de toda la especie en copias idénticas sacadas del mismo molde.
La IA tiene un doble uso, ¿cómo prevenir la explosión de inteligencia?
TAI también propuso un nuevo concepto: capacidades de doble uso (dual-use capabilities). La explicación oficial es: si una modelo de IA mejora sus capacidades en biología, no solo puede usarse para desarrollar nuevos medicamentos, sino también para crear armas biológicas extremadamente mortales; si una IA es muy hábil escribiendo código, no solo es un buen programador, sino que también se convierte en un hacker capaz de infiltrarse fácilmente en redes nacionales.

(Fuente de la imagen: Oficial de Anthropic)
¿Qué desastre causaría este monstruo de «doble propósito» cuando se conecte a gran escala al cerebro de automóviles autónomos, a brazos robóticos pesados en fábricas, e incluso a sistemas de seguridad y flotas de drones? En el teléfono, la IA mostrará un mensaje: «Lo siento, cometí un error»; pero en la vida real, un segundo de sesgo en el reconocimiento puede significar un accidente real de seguridad laboral.
Por no mencionar que los modelos grandes pueden iterar cada pocas semanas, mientras que los humanos tardan años en modificar una ley, perfeccionar el seguro o hacer cambios similares. El tiempo vacío entre ambos ritmos es el «período desnudo» con la menor defensa. Cuando ocurran desastres provocados por la IA, la sociedad actual no tiene la «resiliencia» necesaria para soportarlos.
Para abordar este problema, TAI creó el Frontier Red Team. Su misión era sencilla pero abstracta: atacar y tentar diariamente a los agentes de IA que habían desarrollado, con el fin de comprender el potencial de daño que podrían causar en el mundo real, todo con el objetivo de establecer una barrera defensiva antes de que el sistema social antiguo colapsara por completo.
Antes, los programadores humanos dictaban la velocidad de la evolución de la IA, pero ahora los modelos avanzados pueden revisar artículos académicos y escribir código por sí mismos, y es posible que en un futuro cercano puedan desarrollar por sí mismos una nueva generación de modelos grandes. Cuando la velocidad de auto-replicación de la IA se acelere cada vez más, la evolución tecnológica pronto superará la comprensión humana.

(Foto cortesía de IA generada)
Para hacer frente a este punto crítico que podría llegar en cualquier momento, TAI propone un nuevo concepto: llevar a cabo escenarios de Fire drill dirigidos a la explosión de inteligencia.
En resumen, TAI está preparando una simulación con ejecutivos de laboratorios de élite y gobiernos de diversos países: pretenden probar antes de que ocurra la «explosión de inteligencia» si la humanidad tiene la capacidad de frenarla.
Desarrollar y gobernar al mismo tiempo, A Society pisó fuerte el freno
En este momento en que toda la industria avanza a ciegas, mirar hacia atrás la operación de Anthropic para establecer TAI realmente inspira respeto.
La competencia de al lado, OpenAI,每天都登上热搜的不是高管离职内斗,就是与马斯克的烂账官司。还有许多AI公司业绩惨淡,却一边想方设法“刷榜单”,一边四处融资圈钱,靠着虚高的估值吸纳着社会资本。A社TAI要讨论的话题业界一直都在讨论,但大多数AI巨头的态度却是“管它呢,先发展再说”。在这种极度浮躁的氛围里,A社却来了一脚刹车,把这些见不得光的烂摊子堂而皇之地摆到了台面上,表明了对AI的新态度:一边发展,一边治理。
La empresa A tampoco es una organización benéfica; no está actuando por compasión, sino jugando un muy hábil juego comercial. Hoy en día, los grandes inversores y gobiernos con poder ya están asustados por los diversos fracasos causados por la IA: comprar un modelo cuyo rendimiento sea un poco más alto o más bajo no importa tanto; lo que realmente temen es que de repente se vuelva loca y cause un gran desastre, algo que luego sería imposible controlar. La empresa A ha creado con TAI una imagen de «persona normal», para que los usuarios se sientan seguros y el mundo confíe.

(Foto cortesía de IA generada)
Al final de este artículo sobre TAI, también se menciona explícitamente que todos los hallazgos de investigación y las alertas tempranas de TAI se ingresarán directamente a una institución clave de Anthropic: el Long-Term Benefit Trust (Fideicomiso de Beneficio a Largo Plazo). La misión de este LTBT es vigilar rigurosamente las decisiones comerciales de la empresa, asegurando que cada acción de Anthropic esté orientada al beneficio a largo plazo de la humanidad, y no a la búsqueda de ganancias financieras a corto plazo.
Es exactamente igual a la famosa frase de Google en su día: «No seas malvado»: a través de TAI, A 社 le está diciendo al mundo que mientras todos los competidores compiten por quién va más rápido, nosotros no solo vamos rápido, sino que también investigamos cómo frenar.
Es un poco absurdo esperar que los gigantes tecnológicos se autoregulen, pero en esta era en la que todos van a toda velocidad con los ojos vendados y el acelerador soldado, el hecho de que un jugador líder haya creado activamente un instituto como TAI, invirtiendo dinero real en índices económicos, simulando explosiones de inteligencia y estudiando la degeneración del cerebro humano, ya es algo digno de mención. Por eso, Lei Technology señala en su introducción que el lanzamiento de TAI es más importante que que A Society publique directamente un nuevo modelo.
Adjunto: Agenda oficial de TAI, traducida por Google Gemini
En Anthropic Research (TAI), utilizaremos la información disponible en los laboratorios más avanzados para estudiar el impacto de la inteligencia artificial en el mundo y compartir nuestros hallazgos con el público. Aquí compartiremos las preguntas que impulsan nuestra agenda de investigación.
Nuestra agenda de investigación se centra principalmente en los siguientes cuatro ámbitos:
- Economic expansion
- Amenazas y resiliencia
- Sistemas de inteligencia artificial en aplicación real
- Investigación y desarrollo impulsada por inteligencia artificial
En el artículo "Núcleo de opiniones sobre la seguridad de la inteligencia artificial", señalamos que llevar a cabo investigaciones efectivas sobre seguridad requiere un contacto cercano con sistemas de inteligencia artificial de vanguardia. El mismo principio se aplica al realizar investigaciones efectivas sobre el impacto de la inteligencia artificial en la seguridad, la economía y la sociedad.
En Anthropic, ya hemos comenzado a ver cambios fundamentales en áreas como la ingeniería de software. Estamos presenciando cómo la estructura económica interna de Anthropic comienza a transformarse, y nuestros sistemas enfrentan nuevas amenazas, mientras que las primeras señales de inteligencia artificial están acelerando el propio desarrollo de la inteligencia artificial. Para aprovechar plenamente los beneficios de los avances en inteligencia artificial, deseamos compartir la mayor cantidad posible de esta información. Estamos investigando cómo estos cambios dinámicos afectarán al mundo exterior y cómo el público puede ayudar a guiar estas transformaciones.
En TAI, estudiaremos el impacto de la inteligencia artificial en el mundo real desde una perspectiva de laboratorio de vanguardia, y luego haremos públicos estos hallazgos para ayudar a organizaciones externas, gobiernos y al público a tomar decisiones más informadas sobre el desarrollo de la inteligencia artificial.
Compartiremos investigaciones, datos y herramientas para que los investigadores individuales y las instituciones puedan llevar a cabo estos temas de investigación de manera más sencilla. Específicamente, compartiremos:
- Obtendremos información más detallada con mayor frecuencia a partir de índices económicos humanos para comprender el impacto y la aplicación de la inteligencia artificial en el mercado laboral. Nos esforzaremos por ser señales de alerta temprana de cambios y disruptivos importantes.
- Investigar qué sectores sociales requieren mayor inversión para aumentar su resiliencia frente a los nuevos riesgos de seguridad planteados por la inteligencia artificial.
- Presentar con mayor detalle cómo Anthropic utiliza nuevas herramientas de IA para acelerar su trabajo y el significado de la posible mejora recursiva autoconsciente de los sistemas de IA.
TAI influirá en las decisiones de Anthropic. Esto podría manifestarse como la empresa compartiendo con el exterior algunos datos que de otro modo no compartiría (por ejemplo, índices económicos), o publicando tecnología de manera diferente (por ejemplo, análisis de amenazas cibernéticas que respaldan programas como "Glass Wing").
Esperamos que el trabajo de investigación llevado a cabo por el Instituto TAI se convierta cada vez más en una referencia clave para el Long-Term Benefit Trust (LTBT) de Anthropic. La misión del LTBT es garantizar que Anthropic continúe optimizando sus acciones para beneficiar el interés a largo plazo de la humanidad. Este plan de investigación fue desarrollado en colaboración con el LTBT y los empleados de los diversos departamentos de Anthropic.
Esta es una agenda dinámica, no fija. Mejoraremos continuamente estas cuestiones a medida que se acumulen evidencias, y se anticipan nuevas preguntas que no se cubren hoy. Bienvenidos son los comentarios sobre esta agenda, los cuales utilizaremos para revisarla según la información obtenida a través de las discusiones.
Si está interesado en ayudarnos a responder estas preguntas, le damos la bienvenida a postularse como investigador de Anthropic. Este programa de investigadores dura cuatro meses y es guiado por miembros del equipo de TAI, donde tendrá la oportunidad de investigar uno o más problemas relacionados. Puede obtener más información y postularse para la próxima edición aquí.
Nuestra agenda de investigación:
Fecha de última actualización: 7 de mayo de 2026
Economic expansion
Es crucial comprender cómo la implementación de sistemas de inteligencia artificial cada vez más potentes está transformando la economía. También necesitamos desarrollar los datos económicos y las capacidades de predicción necesarios para elegir formas de implementación de la inteligencia artificial que beneficien al público.
Para responder a las preguntas planteadas en este pilar de la investigación, refinaremos aún más los datos del Índice Económico Humano. También exploraremos otros métodos para mejorar nuestro modelo sobre cómo la inteligencia artificial avanzada afecta a la sociedad, ya sea provocando desempleo, un crecimiento económico sin precedentes u otros aspectos.
Aplicación y difusión de la inteligencia artificial
- ¿Quién está adoptando la inteligencia artificial? La investigación en inteligencia artificial se concentra en pocas empresas de unos pocos países, pero su implementación es global. ¿Qué determina si un país, región o ciudad puede acceder a la inteligencia artificial? Si pueden acceder a ella, ¿cómo obtienen valor económico de ella? ¿Qué políticas y modelos de negocio pueden cambiar eficazmente esta situación? ¿Cómo fomentan los modelos de pesos libres o abiertos este cambio dinámico?
- Aplicaciones de inteligencia artificial a nivel empresarial: ¿Por qué las empresas adoptan la inteligencia artificial y cuáles son sus consecuencias? ¿Cómo cambia la inteligencia artificial la escala a la que una empresa o equipo puede alcanzar la máxima eficiencia? ¿Cómo se distribuye la concentración de la aplicación de inteligencia artificial entre empresas? ¿Cómo se traducen los cambios en la concentración de la aplicación de inteligencia artificial en márgenes de beneficio y participación laboral? ¿Qué cambios ocurrirán en la estructura de la industria si un equipo o empresa de 3 personas ahora puede realizar el trabajo que antes requería 300 personas? O, si las empresas pueden concentrar fácilmente el conocimiento y esta práctica genera economías de escala, ¿veremos empresas más grandes y más extensas con mayor motivación para monitorear sistemáticamente a sus empleados?
- ¿Es la inteligencia artificial una tecnología general? ¿Sigue la inteligencia artificial el patrón de las “tecnologías generales” anteriores, es decir, se adopta más rápidamente en aplicaciones comerciales rentables y más lentamente en áreas donde los retornos sociales superan los retornos privados? ¿Existen políticas o decisiones que puedan cambiar esta tendencia?
Productividad y crecimiento económico
- Productivity growth: What impact will artificial intelligence have on the pace of innovation and productivity growth across the entire economy?
- Compartir beneficios: ¿Qué mecanismos de asignación inicial o reasignación pueden propagar eficazmente los beneficios del desarrollo y la implementación de la inteligencia artificial?
- Costos de transacción del mercado: ¿Cómo afecta la inteligencia artificial a los sistemas de transacción y los costos de transacción en el mercado? ¿Cuándo puede mejorar la eficiencia del mercado y los resultados justos permitir que agentes representen sus negociaciones? ¿Cuándo no?
Amplios efectos en el mercado laboral
- Inteligencia artificial y empleo: ¿Cómo cambiará la inteligencia artificial el empleo en diversos sectores económicos? Con la automatización de inteligencia artificial de los procesos económicos actuales, ¿qué nuevas tareas y puestos de trabajo podrían surgir? ¿Cómo variarán estos cambios entre diferentes regiones y países? Nuestra “Encuesta del Índice de la Economía Humana” proporcionará mensualmente información sobre cómo las personas perciben el impacto de la inteligencia artificial en su trabajo y sus expectativas para el futuro. También actualizaremos el índice económico para compartir datos más frecuentes y detallados.
- ¿Se puede regular la velocidad de adopción de la inteligencia artificial? Los bancos centrales de diversos países utilizan herramientas como las tasas de interés y las orientaciones prospectivas para contener la inflación. ¿Podrían las empresas de inteligencia artificial (a nivel industrial, en colaboración con los gobiernos) adoptar mecanismos similares para controlar la velocidad de adopción de la inteligencia artificial sector por sector? ¿Generaría esto beneficios públicos significativos?
El futuro del trabajo y el lugar de trabajo
- La perspectiva de los trabajadores sobre el trabajo: ¿Cómo ven los trabajadores de diversos sectores los cambios profesionales? ¿Qué influencia tienen sobre estos cambios? ¿Puede el poder de los “trabajadores” ser preservado o transformado?
- Sistema de formación de talento profesional: Muchas industrias dependen de puestos junior (por ejemplo, asistentes legales, analistas junior y desarrolladores asistentes) para formar a futuros profesionales senior. Si la inteligencia artificial reemplaza los trabajos que anteriormente permitían acumular experiencia especializada, ¿cómo podrán las personas convertirse inicialmente en expertas? ¿Qué implica esto para la reserva a largo plazo de talento senior en un campo determinado?
- Aprender para el futuro: ¿Qué deberían aprender las personas hoy para prepararse para el futuro? ¿Cuáles son los empleos del futuro? ¿Cómo cambiará la inteligencia artificial la forma de aprender y desarrollar habilidades profesionales?
- Roles for paid work: If artificial intelligence significantly reduces the central role of paid work in human life, under what conditions can people reallocate their time and energy to other meaningful sources? What can we learn from historical or contemporary groups that have experienced scarcity or irrelevance of work? How should society respond to this transition?
Amenazas y resiliencia
Los sistemas de inteligencia artificial a menudo pueden mejorar simultáneamente varias capacidades, incluyendo capacidades de doble uso. Por ejemplo, los sistemas de inteligencia artificial con capacidades biológicas mejoradas también son más propensos a fabricar armas biológicas. Los sistemas de inteligencia artificial con fuertes habilidades de programación informática también son más propensos a infiltrarse en sistemas informáticos. Si podemos comprender mejor las amenazas que los sistemas de inteligencia artificial podrían intensificar, la sociedad podrá responder más fácilmente a esta situación de amenazas en evolución.
Planteamos estas preguntas con el objetivo de fomentar alianzas que fortalezcan la capacidad del mundo para hacer frente a la inteligencia artificial transformadora y establecer sistemas de alerta temprana para nuevas amenazas que puedan surgir. Muchas de estas preguntas guiarán nuestra agenda de investigación de equipo rojo de vanguardia.
Evaluar riesgos y capacidad de doble uso:
- Tecnología de doble uso: La inteligencia artificial potente es inherentemente de doble uso: puede ser una herramienta para mejorar la medicina y la educación, así como para la vigilancia y la represión. ¿Podemos construir herramientas de observabilidad para comprender si esto está ocurriendo y cómo?
- ¿Cómo valorar adecuadamente el riesgo? ¿Qué métodos efectivos, impulsados por el mercado, pueden aumentar la resiliencia social frente a las amenazas esperadas de los sistemas de inteligencia artificial? ¿Podemos desarrollar nuevos métodos de valoración de riesgos, o herramientas tecnológicas y organizaciones humanas, para aumentar la resiliencia antes de que lleguen amenazas predecibles, como el aumento de la capacidad de ataques cibernéticos de la inteligencia artificial?
- Equilibrio entre ataque y defensa: ¿Las capacidades habilitadas por la inteligencia artificial beneficiarán fundamentalmente a los atacantes en ámbitos como el ciberespacio y la seguridad biológica? ¿Cuando la inteligencia artificial se aplica a campos más tradicionales, como la creciente integración con sistemas de comando y control, también beneficia a los atacantes? En términos más amplios, ¿cómo cambiará la inteligencia artificial la naturaleza de los conflictos humanos?
Implementar medidas de mitigación de riesgos:
- Plan de respuesta a crisis: Durante la Guerra Fría, el presidente de los Estados Unidos tenía una línea directa con el Kremlin para su uso en caso de crisis nuclear. Entonces, ¿qué infraestructura geopolítica se necesitaría si un sistema de inteligencia artificial provocara una crisis? Esta infraestructura no necesariamente tendría que ser entre estados, sino también entre empresas o entre empresas.
- Mecanismos de defensa más rápidos: la capacidad de la inteligencia artificial puede lograr avances significativos en cuestión de meses, mientras que la respuesta regulatoria, de seguros e infraestructural requiere años. ¿Cómo podemos cerrar esta brecha? ¿Pueden los mecanismos de defensa, como parches automáticos, detección de amenazas por inteligencia artificial o capacidades de respuesta predesplegadas, seguir el ritmo y la escala de los ataques de inteligencia artificial? ¿O esta asimetría es estructural? ¿Cómo podemos implementar estos mecanismos de defensa de la manera más eficaz posible?
Capacidad de inteligencia para vigilancia
- El impacto de la inteligencia artificial en la vigilancia: ¿Cómo cambiará la IA la forma en que funciona la vigilancia? ¿Reducirá los costos de vigilancia, aumentará la eficiencia de la vigilancia o ambos?
Sistemas de inteligencia artificial en aplicación real
La interacción entre personas, organizaciones y sistemas de inteligencia artificial se convertirá en una fuente importante de cambio social. Comprender cómo los sistemas de inteligencia artificial podrían transformar a las personas e instituciones que interactúan con ellos es un área central de investigación de nuestro equipo de impacto social. Para estudiar estos cambios, estamos mejorando herramientas existentes y desarrollando nuevas herramientas para la investigación, que abarcan desde software para aumentar la observabilidad de la plataforma hasta herramientas para realizar encuestas cualitativas a gran escala.
El impacto de la inteligencia artificial en las personas y la sociedad:
- Epistemología colectiva: ¿Qué ocurre con nuestra epistemología cuando una gran parte de la población se refiere a los mismos pocos modelos? ¿Podemos encontrar formas de medir los cambios a gran escala en las creencias, el estilo de escritura y los métodos de resolución de problemas causados por el uso compartido de la inteligencia artificial?
- Pensamiento crítico: A medida que los sistemas de inteligencia artificial se vuelven más potentes y confiables, ¿cómo podemos detectar y evitar la degeneración de la capacidad humana de pensamiento crítico debido a una dependencia creciente en los juicios de la inteligencia artificial?
- Interfaz técnica: La interfaz técnica determina cómo las personas interactúan con la tecnología: la televisión convierte a las personas en espectadores pasivos, mientras que las computadoras facilitan que las personas se conviertan en creadores creativos. ¿Qué tipo de interfaz podemos construir para que los sistemas de inteligencia artificial mejoren y fomenten la autonomía humana?
- Gestión de sistemas de colaboración humano-máquina: ¿Cómo pueden los humanos gestionar eficazmente equipos compuestos por humanos y sistemas de inteligencia artificial? A su vez, ¿cómo deben los sistemas de inteligencia artificial gestionar equipos compuestos por humanos, inteligencia artificial o una combinación de ambos?
Identifique el impacto significativo de la inteligencia artificial:
- Impacto en el comportamiento: Al igual que las redes sociales han cambiado el comportamiento humano, la inteligencia artificial también puede moldear el comportamiento humano. ¿Qué métodos de monitoreo o medición pueden ayudar a los investigadores a comprender esta dinámica?
- Fomentar la investigación: ¿Existen mecanismos y herramientas transparentes que permitan a la población en general (y no solo a las empresas de inteligencia artificial de vanguardia) investigar fácilmente las aplicaciones de inteligencia artificial en el mundo real?
Comprender y gestionar modelos de inteligencia artificial:
- Valores del sistema: ¿Qué valores expresan los sistemas de inteligencia artificial? ¿Cómo están relacionados estos valores con la forma en que se entrenan los sistemas? Más específicamente, ¿cómo medimos el impacto de la “constitución” de la inteligencia artificial en su comportamiento tras su implementación? Ampliaremos la investigación previa sobre estas preguntas.
- Gobernanza de agentes autónomos: ¿Qué aspectos de las leyes, sistemas de gobernanza y mecanismos de responsabilidad actuales pueden aplicarse a agentes de inteligencia artificial autónomos? Por ejemplo, cómo el derecho marítimo aborda el abandono de embarcaciones está relacionado con cómo el derecho aborda agentes sin supervisión. Por el contrario, ¿existen aspectos en las leyes actuales que ya se aplican a agentes de inteligencia artificial pero que en realidad no deberían aplicarse?
- Fiabilidad de los agentes: ¿Qué aspectos de los agentes de inteligencia artificial autónomos pueden ajustarse para adaptarse a las leyes, sistemas de gobernanza y mecanismos de rendición de cuentas existentes? Por ejemplo, ¿podemos garantizar que los agentes de inteligencia artificial tengan una identidad única y confiable, incluso sin control humano directo?
- Gobernar la inteligencia artificial con inteligencia artificial: ¿Cómo podemos aprovechar eficazmente la inteligencia artificial para gobernar los sistemas de inteligencia artificial? ¿En qué áreas de la regulación de la inteligencia artificial los humanos tienen ventajas comparativas, o están obligados por ley o normativa a “participar”?
- Interacción de agentes: ¿Qué normas emergen cuando los agentes de inteligencia artificial interactúan entre sí? ¿Cómo expresan los distintos agentes sus preferencias diferentes, y cómo afectan estas preferencias a otros agentes?
Investigación y desarrollo impulsada por inteligencia artificial
A medida que los sistemas de inteligencia artificial se vuelven cada vez más potentes, los científicos los utilizan para realizar un número creciente de investigaciones. Esto significa que un número creciente de estudios científicos se llevan a cabo de forma autónoma o semiautónoma, con cada vez menos intervención humana. En el campo de la investigación de inteligencia artificial, sistemas cada vez más potentes pueden utilizarse para desarrollar sus propias versiones posteriores. A veces llamamos a este modelo "investigación y desarrollo de inteligencia artificial impulsada por inteligencia artificial".
El desarrollo de inteligencia artificial impulsado por inteligencia artificial podría ser el “beneficio natural” para crear sistemas más inteligentes y potentes. Así como el avance en habilidades de codificación generó capacidades cibernéticas de uso dual, el avance en capacidades científicas podría generar capacidades biológicas de uso dual, el progreso en el trabajo técnico complejo también podría generar naturalmente sistemas de inteligencia artificial capaces de desarrollar sus propios sistemas de inteligencia artificial.
El desarrollo de la inteligencia artificial impulsada por la inteligencia artificial conlleva grandes riesgos potenciales. Es esencial que los formuladores de políticas comprendan la tendencia en la velocidad de desarrollo de la inteligencia artificial y si la investigación en inteligencia artificial comenzará a generar efectos de capitalización compuesta.
Artificial intelligence for artificial intelligence development
- Gobernanza del desarrollo de la inteligencia artificial: Si los sistemas de inteligencia artificial se utilizan para desarrollar y mejorar su propio funcionamiento de forma autónoma, ¿cómo pueden los humanos comprender y controlar eficazmente estos sistemas? En última instancia, ¿qué gobernará estos sistemas?
- Ejercicio de respuesta de emergencia a explosión de inteligencia: ¿Cómo realizamos un ejercicio de respuesta de emergencia a explosión de inteligencia? ¿Cómo llevar a cabo un ejercicio de mesa que realmente evalúe la capacidad de toma de decisiones de la dirección del laboratorio, la junta directiva y el gobierno?
- Telemetría del desarrollo de IA: ¿Cómo medimos la velocidad general del desarrollo de IA? ¿Qué tecnologías de telemetría y soporte subyacente se necesitan para recopilar esta información? ¿Cómo pueden los indicadores relacionados con el desarrollo de IA servir como señales de alerta temprana para una autorrefinación recursiva?
- Controlar el desarrollo acelerado de la inteligencia artificial: si se avecina una explosión de inteligencia, ¿qué puntos de intervención podrían ralentizar o modificar esta velocidad de explosión? Suponiendo que los humanos puedan intervenir, ¿qué entidades deberían ejercer esta capacidad: gobiernos? ¿empresas?
Aplicación de la inteligencia artificial en el ámbito de la investigación: es decir, la investigación en otros campos impulsada por la inteligencia artificial:
- Árbol tecnológico: La inteligencia artificial acelera el desarrollo de ciertos campos científicos mucho más que otros, dependiendo de la disponibilidad de datos, los indicadores de evaluación y la cantidad de conocimiento que es tácito o está sujeto a restricciones institucionales. ¿Qué tan desigual es este gradiente de desarrollo? ¿Qué problemas humanos se priorizarán como resultado de los cambios que conlleva el progreso científico?
- Frontera accidentada: las capacidades del modelo son más fuertes en algunos campos que en otros. Los campos con externalidades positivas enormes —como la investigación farmacéutica y la ciencia de materiales— reciben inversiones mucho menores de las que merecerían según su valor. El mercado dirige las mejoras del modelo según los retornos privados, pero ¿podemos mejorar el rendimiento del modelo para abordar las externalidades sociales?
Este artículo proviene del canal de WeChat "Value Research" (ID: jiazhiyanjiusuo), autor: Dingxi
