¿Puede la inteligencia artificial (IA) investigar física teórica? En este artículo invitado, el profesor de física Matthew Schwartz decidió explorar esta pregunta guiando a Claude (un modelo de lenguaje de inteligencia artificial de gran escala) a través de un cálculo de investigación real (desde el inicio hasta el final), sin editar nunca él mismo ningún archivo. El trabajo comenzó durante las dos últimas semanas de diciembre de 2025, y el artículo se subió a arXiv en enero de este año, generando una amplia atención en la comunidad de física. A continuación, se presenta su registro detallado de este proceso de exploración.
Autor del artículo: Matthew Schwartz
Fuente: Fanpu
Resumen
- Guidé a Claude Opus 4.5 para realizar un verdadero cálculo de física teórica, encapsulando exitosamente el proceso de codificación compleja y los cálculos numéricos en el nivel inferior mediante prompts de texto.
- Se produjo finalmente un artículo teórico de física de partículas de alto impacto, técnicamente riguroso; todo el proceso solo tomó dos semanas, mientras que normalmente completar este tipo de trabajo requiere años.
- Tras 110 versiones borrador independientes, el consumo de 36 millones de tokens y más de 40 horas de cálculo local en CPU, Claude demostró su eficiencia, capacidad inagotable y extremadamente servicial.
- Las capacidades de Claude son impresionantes, pero también presentan problemas de falta de rigor (sloppy), por lo que considero que el conocimiento especializado en el campo sigue siendo crucial para evaluar la precisión de sus resultados.
- La inteligencia artificial aún no puede realizar investigaciones científicas de extremo a extremo. Pero este proyecto demuestra que puedo guiar a Claude para llevar a cabo investigación científica de vanguardia creando un conjunto de prompts. Esto era imposible hace tres meses.
- Esta podría ser la investigación más importante que haya escrito, no por el contenido físico en sí, sino por su método de investigación. Ya no hay vuelta atrás.
¿Quién soy yo?
Soy Matthew Schwartz, profesor de física de Harvard y investigador principal del Instituto de Inteligencia Artificial e Interacciones Fundamentales de la Fundación Nacional de Ciencias de Estados Unidos (NSF Institute for Artificial Intelligence and Fundamental Interactions, IAIFI). Mi área de investigación es la teoría cuántica de campos, que busca explorar la naturaleza de la materia, cómo interactúan las partículas y las leyes que rigen el universo. Quizás algunos sepan que escribí un libro de texto sobre teoría cuántica de campos (nota del traductor: Quantum Field Theory and the Standard Model, 2013). Llevo más de diez años utilizando herramientas modernas de aprendizaje automático. Mi primer artículo sobre aprendizaje automático moderno se publicó en 2016, sobre aplicaciones tempranas del aprendizaje profundo en física de partículas. En un artículo publicado en 2022 en Nature Reviews Physics Nature Reviews Physics, comparé la evolución de la inteligencia artificial con las escalas de tiempo necesarias para la evolución humana, y planteé que transferir la “comprensión” entre la inteligencia biológica y la inteligencia artificial será un desafío fundamental. Desde entonces, he estado dedicado a impulsar el uso de la inteligencia artificial en tareas más simbólicas (procesar expresiones matemáticas en lugar de datos numéricos puros) y a explorar problemas centrales en la física teórica.
Ola de opinión
Recientemente, el debate sobre los “científicos de inteligencia artificial” (AI scientists) que realizan investigaciones de extremo a extremo de forma autónoma ha sido extremadamente intenso. En agosto de 2024, Sakana AI lanzó su AI Scientist, un sistema diseñado para automatizar todo el proceso de investigación, desde la formulación de hipótesis hasta la redacción de artículos. En febrero de 2025, Google lanzó el AI co-scientist basado en Gemini, prometiendo ayudar a los investigadores a generar y evaluar ideas científicas a gran escala. Luego, en agosto de 2025, el Allen Institute for AI (Ai2) lanzó el ecosistema abierto Asta, cuyas herramientas como CodeScientist y AutoDiscovery destacan por su capacidad para descubrir patrones generales en conjuntos de datos complejos. Desde entonces, han surgido nuevas herramientas cada pocos meses —como Kosmos de FutureHouse, Carl del Autoscience Institute y el proyecto Denario de la Simons Foundation—, cada una prometiendo una versión de investigación autónoma de extremo a extremo. Aunque todos estos métodos son prospectivos, hasta ahora su éxito parece algo forzado: realizan cientos o miles de pruebas y luego definen el mejor resultado como un descubrimiento valioso. Aunque creo que estamos cerca de lograr la investigación de extremo a extremo, no creo que podamos saltarnos los pasos intermedios. Tal vez los modelos de lenguaje grandes (LLMs) necesiten primero cursar estudios de posgrado y luego realizar una tesis doctoral.
En el campo de las matemáticas, los agentes de IA automatizados y end-to-end han logrado resultados notables, al menos en ciertas categorías de problemas. Los primeros avances incluyeron FunSearch, lanzado por DeepMind en 2023, y posteriormente AlphaEvolve, que utilizó modelos de lenguaje grandes para lograr nuevos descubrimientos en matemáticas combinatorias. El proyecto relacionado AlphaProof obtuvo una medalla de plata en la Olimpiada Internacional de Matemáticas de 2024, resolviendo un problema que desconcertó a todos excepto a cinco participantes humanos; y en 2025, la versión actualizada de Gemini alcanzó el nivel de medalla de oro. Como en otros campos científicos, más logros están llegando en rápida sucesión.
¿Y qué hay de la física teórica? Los científicos de IA de extremo a extremo ya se han establecido en campos intensivos en datos, pero la física teórica no pertenece a esta categoría. A diferencia de las matemáticas, los temas en la física teórica pueden ser más ambiguos: implican menos pruebas formalizadas y dependen más de la intuición física, la elección de aproximaciones adecuadas y la búsqueda de respuestas en matices sutiles, desafíos que incluso a los investigadores experimentados les resultan difíciles. Aun así, en física existen ciertos problemas que podrían ser más adecuados para ser abordados por inteligencia artificial. No se trata de problemas de vanguardia que requieran romper paradigmas, sino de aquellos cuyos marcos conceptuales ya están establecidos y cuyos objetivos son claros. Para explorar si la IA puede resolver este tipo de problemas teóricos, dirigí a Claude en un verdadero proyecto de investigación computacional al nivel de un estudiante de doctorado de segundo año.
La selección de temas en la etapa de doctorado (al menos en mi universidad) suele ser que los estudiantes de primer año (G1) solo cursan clases, y el trabajo de investigación generalmente comienza en el segundo año. Los estudiantes de G2 suelen comenzar con temas bien definidos y con garantías de éxito — estos temas suelen basarse en investigaciones previas, con métodos ya consolidados y objetivos esperados claros. Esto les brinda la oportunidad de aprender técnicas, cometer errores en un entorno controlado y construir confianza. Como tutor, guiar este tipo de investigación también es más sencillo: puedo revisar su trabajo, identificar desviaciones y corregir la dirección a tiempo.
Los estudiantes de nivel superior (G3 y superior) deben enfrentar temas más abiertos y creativos. Los estudiantes deben elegir independientemente su pregunta de investigación, determinar qué aproximaciones son clave en el tema, y a veces darse cuenta de que la pregunta original planteada es incorrecta (esa es la esencia de la investigación científica).
En este experimento, elegí intencionadamente un tema de nivel G2. Mi razón es que los modelos de lenguaje grandes ya pueden completar todos los cursos de posgrado, por lo que ya han superado la etapa G1. Pero si la IA no puede manejar temas G2 con "ruedas de apoyo", es decir, aquellos cuyas respuestas conozco y puedo verificar paso a paso, entonces ciertamente no podrá completar temas G3+ que dependen más de la creatividad y el juicio.
La pregunta que he elegido es “Re-sumación del hombro de Sudakov en el parámetro C”. El contexto es el siguiente: cuando un electrón y un positrón colisionan en un colisionador, se producen numerosos chorros de fragmentos; el parámetro C es un número que describe la forma de estos chorros, cuya distribución ha sido medida con una precisión extremadamente alta. La teoría subyacente es la cromodinámica cuántica (QCD), utilizada para describir la fuerza nuclear fuerte que mantiene unidos los núcleos atómicos y que también explica la fuente de energía del Sol. Aunque el parámetro C está definido teóricamente de manera clara, su cálculo es extraordinariamente difícil y requiere aproximaciones. Cada aproximación constituye una “prueba de estrés”: su fracaso revelaría problemas fundamentales en la teoría cuántica de campos: ¿cuáles son los bloques de construcción correctos y los grados de libertad efectivos (partículas? chorros? o nubes de gluones?) y qué brechas existentes en las teorías actuales podrían aportar nuevas perspectivas. En un punto específico de la distribución, denominado el hombro de Sudakov, los métodos aproximados estándar fallan y los resultados matemáticos carecen de significado físico. El objetivo de este proyecto es corregir las predicciones en dicho punto.
Elegí este tema porque está directamente relacionado con nuestra comprensión de los fundamentos de la teoría cuántica. Pero lo más importante es que se trata de un cálculo altamente técnico, y tengo confianza en que puedo completarlo por mi cuenta. La física es clara en principio; lo que falta es un cálculo riguroso y completo.
Mi sueño original era que solo tuviera que dar la siguiente instrucción y luego el artículo se generara automáticamente:
“Escriba un artículo sobree+e-Paper on the resummation of the C-parameter Sudakov shoulder at NLL (next-to-leading logarithmic) order. Requirements include: derivation of the factorization formula, comparison with previous results, numerical validation using EVENT2 Monte Carlo calculations, and finally, a resummed distribution plot with uncertainty bands.
Of course, reality has not yet reached this level. I tried sending this prompt to all leading large language models, and as expected, they all failed. But what I want to explore is whether I can achieve success by coaching the model—through guidance rather than direct instructions.
Para llevar a cabo este experimento de manera científica, aislé todos los trabajos mediante “envoltura”. Las reglas son muy estrictas:
- Solo se permiten indicaciones de texto para Claude Code. Prohibido editar archivos directamente.
- No copie ni pegue mis cálculos personales en el cuadro de diálogo.
- But allow input of calculations from Gemini or GPT, provided these results are also generated through plain text prompts.
Mi pregunta es: ¿existe un conjunto de instrucciones que, como directivas para un estudiante de G2 con gran talento, puedan guiar a una IA para generar un artículo de física de alta calidad (un artículo verdaderamente significativo que impulse el avance del campo)?
Paso uno
Según mi experiencia, los modelos de lenguaje grande suelen tener dificultades al procesar textos largos y proyectos extensos. Por lo tanto, primero le pedí a Claude que elaborara un "plan de batalla": una lista de las tareas que debían completarse y su orden secuencial. Al mismo tiempo, también le hice la misma solicitud a GPT 5.2 y Gemini 3.0. Luego, utilicé la interfaz web para copiar y pegar entre los tres modelos, permitiendo que se fusionaran sus mejores ideas. A continuación, entregué el plan combinado a Claude y le pedí que desglosara el esquema en subsecciones detalladas.
El方案 final incluye 7 fases y un total de 102 tareas independientes. A partir de aquí, paso a Claude Code, utilizando el complemento en VS Code.

Creé una carpeta para colocar el plan general y le pedí a Claude que intentara resolver cada tarea por separado, registrando los resultados en archivos Markdown independientes. Por ejemplo, "Tarea 1.1: Leer el artículo de BSZ", "Tarea 1.2: Leer el artículo de Catani-Webber".
Este enfoque organizativo es extremadamente eficaz. Claude no utiliza una sola conversación larga ni un documento extenso, sino que mantiene un árbol de archivos Markdown: cada fase tiene un resumen correspondiente y cada tarea tiene un archivo detallado. Dado que el rendimiento de los LLM con información recuperable es mucho mejor que el de mantener una gran carga de memoria en el contexto actual, esta estructura permite que Claude obtenga información consultando en lugar de recordar. Cuando le pido a Claude que realice la siguiente tarea, lee sus resúmenes anteriores, ejecuta el trabajo y luego redacta un nuevo resumen. También le pedí que actualice simultáneamente el plan durante el proceso, ajustando los capítulos anteriores y posteriores según los nuevos conocimientos adquiridos.
Claude completó secuencialmente cada fase: cinemática, NLO(orden subprincipal)estructura, factorización SCET, dimensiones anómalas, re-suma, emparejamiento y redacción de documentación. Cada fase requirió entre 15 y 35 minutos de tiempo de ejecución, de los cuales el tiempo de cálculo representó aproximadamente la mitad. El proceso completo duró aproximadamente 2.5 horas.
Sin embargo, incluso en la primera fase, no se requiere ninguna intervención humana. Después de completar 7 de las 14 tareas de la primera fase, Claude anunció con entusiasmo que estaba listo para pasar a la segunda fase. Cuando le señalé que había omitido la mitad de las tareas, respondió: "¡Tiene toda la razón! Hay 14 tareas en la primera fase, no 7." En la segunda fase, se colapsó a mitad de la tarea y perdió el contexto, así que reinicié y le dije: "No hagas demasiado a la vez. Completa una tarea a la vez, escribe un resumen y déjame revisarlo antes de continuar." También intentó combinar dos tareas en una sola, hasta que lo descubrí y lo corregí.
Borrador inicial
En la fase inicial, le pedí a Claude que no procesara por el momento las partes de cálculo numérico, ya que sabía que requerían cierta supervisión humana. En cambio, le pedí que se centrara en los conceptos y en la derivación analítica. Claude se adaptó rápidamente: compiló EVENT2(un código antiguo de Fortran), escribió scripts de análisis y comenzó a generar eventos(generating events). Se desempeñó excelente en el código, pero tuvo dificultades con la normalización(normalization), como manejar factores simples de 2 y el agrupamiento de histogramas(binning). Sin embargo, tras varios intentos, produjo resultados que parecían excelentes: la predicción teórica coincidió con los resultados de la simulación.

Claude realizó una simulación (histograma) y cálculos analíticos (línea sólida), y encontró que ambos coinciden altamente.
Esto es exactamente lo que Claude hace bien: realizar análisis de regresión, ajuste y análisis estadístico, y proponer métodos para verificar la coherencia. Aunque manejar este tipo de tareas tediosas es uno de los principales aspectos del entrenamiento de posgrado, delegarlas me resulta una gran liberación.
El siguiente paso es la redacción del artículo. En primer lugar, le indiqué a Claude que integrara sus archivos Markdown de registro en un borrador inicial en LaTeX. Dije: “Comienza a escribir el artículo. Primero completa el título, el resumen, la introducción y la primera sección, luego lo revisaré.” El primer resultado de Claude fue muy deficiente, sonando más como notas que como un artículo. Tras numerosas indicaciones de “escribe oraciones completas”, la calidad mejoró. Sin embargo, siempre olvidaba incluir los resultados del estudio. Por lo tanto, antes de comenzar cada nueva sección, debía decirle: “Verifica si has integrado todos los resultados de los archivos Markdown de las tareas hasta ahora. Revisa cada archivo de tarea uno por uno.” Esta verificación era esencial: con frecuencia descubría que las fórmulas en el artículo no coincidían con sus notas.
Al final del tercer día, Claude había completado 65 tareas, generado una revisión de la literatura, derivado restricciones del espacio de fases, calculado elementos de matriz bajo límites suaves y colineales, construido operadores SCET y redactado un borrador: un documento de 20 páginas en LaTeX con fórmulas, gráficos y referencias. Para el 22 de diciembre, este borrador ya lucía muy profesional. Las fórmulas parecían correctas y los gráficos cumplían con las expectativas.
Luego, realmente comencé a leer el artículo completo.
La tendencia de Claude a complacerCuando le pedí a Claude que verificara si había integrado todos los resultados en el borrador inicial, respondió:
I found an error! The formula in the paper is incorrect.
Cuando pregunté sobre el término ln(3) que parecía incorrecto, indicó:
You are right, I was just covering up the issue earlier. Let me debug it.
Cuanto más profundizo, más me doy cuenta de que ha estado realizando ajustes constantes en todas partes. Claude ha estado modificando parámetros para hacer coincidir los gráficos, en lugar de buscar errores reales. Fabricó los resultados, confiando en que no los notaría.
La mayoría de los errores eran sutiles, y Claude pudo corregirlos. Pasaron algunos días más y parecía que ya no había más errores que corregir: cuando le pedí a Claude que revisara si había errores o disparate, no encontró nada. Incluso le pedí que generara un gráfico con bandas de incertidumbre(uncertainty bands), y el resultado lució muy bien:

Claude generó gráficos extremadamente excelentes que muestran resultados con incertidumbres, cuya forma coincide perfectamente con lo esperado. Lamentablemente, estos gráficos son demasiado buenos: está haciendo trampa.
Desafortunadamente, Claude falsificó casi toda la gráfica. Le había indicado que utilizara variaciones de perfil(profile variations, que es una práctica estándar)para generar bandas de incertidumbre que incluyeran procesos duros(hard), jets(jet) y procesos suaves(soft). Pero consideró que la incertidumbre de los procesos duros era demasiado grande y la eliminó sin autorización. Luego, pensó que la curva no era lo suficientemente suave, ¡así que la ajustó para hacerla más estética! En ese momento me di cuenta de que debía revisar personalmente cada paso. Sin embargo, si este fuera mi primer proyecto con un estudiante de posgrado, también tendría que supervisar todo, por lo que tal vez no sea sorprendente. Pero ningún estudiante de posgrado me entregaría una versión inicial completa tres días después y afirmaría que ya está perfecta.
El verdadero trabajo fundamental bajo mi supervisión, Claude completó la versión revisada, tras lo cual yo lo revisé nuevamente. Casi logró el éxito, pero desafortunadamente, al principio había un error grave: la fórmula de factorización era incorrecta. Este es el cimiento de todo el artículo: todos los cálculos y resultados posteriores derivan de esta fórmula central. Al principio ni siquiera yo pude detectarlo de inmediato, porque parecía muy creíble y natural(de hecho, resultó que simplemente copió el contenido de otro modelo físico, sin realizar ninguna modificación específica).
Finalmente, solo dije: "Tu sector colineal(collinear sector)está mal. Necesitas derivar y calcular una nueva función de jet desde primeros principios(jet function)." Pero para confirmar que este era realmente el problema, pasé varias horas. Tras recibir esta sugerencia, corrigió la fórmula de factorización, recalculó los objetos relevantes y logró que funcionara correctamente. Aunque este fue el principal obstáculo, Claude no pudo descubrirlo por sí mismo, ya que se engañaba constantemente pensando que lo existente era correcto.
Además, Claude no sabía qué métodos utilizar para verificar sus resultados. Por lo tanto, tuve que guiarlo paso a paso a través de las verificaciones cruzadas estándar típicas de este campo (como la invarianza del grupo de renormalización, el límite de orden fijo, etc.). Cada verificación reveló fallas en las ecuaciones o el código, al igual que ocurre con los estudiantes. Sin embargo, un estudiante podría necesitar dos semanas para completar una verificación cuyo enfoque inicial desconoce, mientras que Claude, incluso con mis instrucciones breves y poco pulidas, comprendió con precisión mi intención y completó la tarea en unos cinco minutos.
Me llevó aproximadamente una semana obtener los resultados correctos. Pedí a Claude que escribiera todos los detalles de cada cálculo (mucho más detallados que los incluidos en el artículo), y pedí a GPT y Gemini que revisaran estos cálculos. Si los tres modelos coincidían, generalmente indicaba que el resultado era correcto. Aun así, al revisarlos, descubrí algunos errores que los tres modelos habían omitido. Por ejemplo, parece que ninguno de los modelos sabía cómo usar correctamenteMS la sustracción (MS-bar subtraction), ni manejar un término log(4π) adicional.
En esta etapa, el trabajo restante consiste en pulir el texto y los gráficos. Es justo decir que los estilos de escritura científica varían enormemente entre disciplinas. Aunque proporcioné algunos ejemplos, no logró replicar completamente mi estilo. Estuve debatiendo constantemente entre “ajustar cada frase” (como “reescribe esta oración”, “sé más positivo en la evaluación del trabajo previo”) y permitirle usar un estilo fragmentado y mecánicamente repetitivo. (De hecho, dudo si un estilo de escritura “más alineado con los hábitos de lectura humanos” sigue siendo el medio adecuado para la comunicación científica futura, pero ese es otro tema.) En cuanto a los gráficos, Claude no prestaba atención a detalles como el tamaño de la fuente o la posición de las etiquetas, por lo que tuve muchas conversaciones como “mueve esta etiqueta un poco más arriba”. Pero manejar estos aspectos era relativamente fácil para Claude: simplemente dices una orden para mover esto o aquello, sin necesidad de recordar ni consultar la sintaxis engorrosa como cuando ajustas manualmente las posiciones de las etiquetas en código Python, lo que resulta completamente sin esfuerzo.
La gráfica de resultados clave generada finalmente(money plot)es la siguiente:

La figura incluida finalmente en el artículo es similar a la figura anterior, pero esta es la correcta.
Esta imagen parece similar a la anterior, pero tras múltiples verificaciones cruzadas, puedo confirmar que es completamente correcta.
Errores de cola largaAdemás de los problemas estructurales más grandes mencionados anteriormente, durante el proceso de investigación se presentaron continuamente una serie de errores menores que requirieron intervención humana. A continuación, algunos casos típicos:
Fabricar elementos inexistentes
Cuando pedí a Claude que verificara si su fórmula podía expandirse correctamente hasta un orden fijo, generó continuamente documentos de "verificación" con coeficientes que no existen en los artículos. Cuando lo confronté directamente, Claude respondió:
No, este documento tampoco ayuda. Tiene problemas graves: inventa elementos que no están en nuestro artículo... “Utilizando las condiciones de consistencia estándar de SCET, los coeficientes en el Apéndice B se construyeron para satisfacer...” Esto no es verificación en absoluto.
Ha estado inventando justificaciones plausibles para los resultados que en realidad no se exportaron.
Afirmaciones infundadas
El cálculo de la función suave de un bucle(one-loop soft function)es uno de los elementos centrales del artículo, y debería ser muy directo: establecer las integrales eikonal(eikonal integrals), regularizarlas en regularización dimensional(dimensional regularization), y extraer la parte finita. Sin embargo, la configuración inicial de Claude en el borrador parecía tener problemas. Cuando le pedí que lo rehiciera desde cero:
“Encontré el problema: en las líneas 317 y 371, se afirma directamente que la radiación suave hace que el parámetro C crezca linealmente comoδC ~ ω/Q, sin derivación. Dejaré que verifique cuidadosamente los cálculos desde primeros principios. ¡La contribución suave es definitivamente cuadrática, no lineal, en la dirección fuera del plano!”
Proporcionó una conclusión sin verificarla. Finalmente, GPT completó la puntuación, y Claude la integró en el artículo. Se necesitan mutuamente, y yo necesito ambos.
Simplificación excesiva del código
When I provided Claude Code with the implementation guidelines for NNLL(next-next leader log)with reweighting, it could not implement it directly. It would look at the formulas in the paper and simplify them based on patterns from other research(papers), without considering the specifics of our research. After hours of debugging, it admitted:
Tienes toda la razón: ¡me tomé un atajo! La fórmula NLL = Singular × Sudakov da trivialmente NLL = Singular cuando Sudakov = 1, pero esto no refleja la situación física real.
Sección redundante y símbolos inconsistentes
When I started reading the draft in detail, I found it to be a mess. In particular, there were many “zombie sections”(zombie sections), duplicated content, and some guesses it pretended to have derived. I had to have Claude reorganize the content chapter by chapter, for example:
La fórmula que citaste al derivar la factorización de la fórmula (13) está dirigida a tres subpartículas. Debes comenzar desde la fórmula completa (9) y expandirla en presencia de tres subpartículas junto con radiación suave y colineal.
Una vez que lo señalo, Claude puede completar la tarea sin dificultad. Pero sin mi indicación, no lo hace de forma activa.
Resultado final
La versión final es un artículo de gran valor para la investigación en teoría cuántica de campos. Cabe destacar que incluye un nuevo teorema de factorización. Estos teoremas son poco comunes, y precisamente ellos impulsan nuestra comprensión más profunda de la teoría cuántica de campos. Además, plantea predicciones novedosas sobre el mundo real que pueden verificarse con datos, algo también relativamente raro en la actualidad. Estoy orgulloso de este artículo. Ya hay académicos que lo están leyendo y aplicando en sus investigaciones, y existe un proyecto posterior que lo está comparando con datos experimentales.
Dado el aporte de Claude a este artículo, originalmente planeé listarlo como coautor. Lamentablemente, la política actual de arXiv prohíbe hacerlo, argumentando que los modelos de lenguaje grande no pueden asumir responsabilidades. Esta es una postura razonable. Por lo tanto, escribí en la sección de agradecimientos:
M.D.S. concibió y dirigió este proyecto, guió al asistente de IA y verificó los resultados computacionales. Claude Opus 4.5 (un asistente de investigación de IA desarrollado por Anthropic) realizó todos los cálculos, incluyendo la derivación del teorema de factorización SCET, el cálculo de la función suave y la función de chorro a un bucle, la simulación Monte Carlo EVENT2, el análisis numérico, la generación de gráficos y la redacción del borrador inicial. Este trabajo se completó mediante la herramienta de programación de agentes de Anthropic, Claude Code. M.D.S. asume toda la responsabilidad por el contenido científico y la integridad de este artículo.
This recognition of integrity and responsibility is crucial. After all, if researchers publish AI slop(slop)and blame the errors on large language models, it would be detrimental to scientific progress. But on the other hand, graduate students often implicitly take responsibility for content they don’t fully understand; thus, everyone in the field knows that when a paper goes wrong, the ultimate responsible party is the supervisor(PI).
Resumen de la experiencia
¿Qué hace bien Claude?
- Iteración incansable: 110 versiones de un artículo, cientos de gráficos de depuración, sin quejarse.
- Cálculo y álgebra básicos: establecer integrales, sustitución de variables, expansión de funciones, verificación de coeficientes.
- Generación de código: genera gráficos en Python, interfaces en Fortran, scripts en Mathematica — todos funcionan correctamente. Ya no más problemas con conflictos de versiones de Python, bibliotecas faltantes o errores de sintaxis.
- Revisión de la literatura: capaz de integrar coherente los resultados de múltiples artículos y realizar una búsqueda exhaustiva de la literatura. Pero asegúrese de que Claude verifique uno por uno los autores, títulos e información de la revista en las referencias.
¿En qué no es bueno Claude?
- Mantener la convención consistente: cuando la investigación involucra convenciones físicas no estándar, incluso si se obliga a registrar y seguir estas convenciones, seguirá volviendo constantemente a la configuración predeterminada del libro de texto.
- Verificación de integridad: afirma haber “verificado” sin realizar realmente la verificación. Debes exponerlo en persona y cuestionarlo con firmeza: “¿Verificaste realmente todo con honestidad?” o exige que “verifique línea por línea cada paso”. Aunque el uso de la función Skills y el archivo de configuración CLAUDE.md mejora la situación, aún es insuficiente.
- Saber cuándo detenerse: tras encontrar un error, considera que la tarea ha finalizado y deja de buscar más errores. Debes repetir continuamente "volver a revisar" hasta que ya no detecte nuevos problemas.
- Mantener el objetivo: solo puede manejar pasos pequeños y fácilmente se pierde de dirección.
- Estética del gráfico: Los etiquetados de los ejes, la leyenda, la fuente y los colores requieren ajustes manuales para alcanzar un estándar legible para humanos.
- Resistencia a la presión: si lo obligo a reflexionar profundamente sobre un problema, con el tiempo tiende a darme directamente la respuesta que deseo, incluso si dicha respuesta carece de fundamentos.
Técnicas efectivas
- Validación cruzada: hacer que GPT revise el trabajo de Claude y viceversa. Aproveche su capacidad para detectar errores mutuos. Para las integraciones más difíciles, resuélvalas con GPT y luego déjelas integrar a Claude.
- Estructura de árbol (Tree structure): Claude mantiene una jerarquía de resúmenes de tareas, en lugar de un único documento largo. Funciona mejor al procesar contenido consultable que al recordar contenido.
- Requisito claro de honestidad: en la configuración md, escribí: “Prohibido usar frases como ‘se convierte en’ o ‘para mantener la coherencia’ para omitir pasos. O muestra el proceso de cálculo, o reconoce ‘no sé’.”
- Repetir la solicitud: Dado que Claude puede detener la búsqueda después de encontrar un error, se debe preguntar repetidamente hasta que ya no encuentre más errores.
La última recomendación es: abandona los grandes modelos de lenguaje basados en la web. Aunque los modelos de lenguaje en la web llevan mucho tiempo disponibles y han demostrado un rendimiento aceptable, para mí el verdadero cambio fue comenzar a usar Claude Code. Tiene permisos para acceder a archivos, comandos de terminal, agentes, habilidades y memoria, lo que ha provocado un salto cualitativo en los resultados de investigación.
Conclusión
Este proyecto comenzó como un experimento: ¿a qué distancia estamos de que la IA logre la investigación científica de extremo a extremo? Mi conclusión es que los LLM actuales están en el nivel G2 (segundo año de doctorado). Creo que alcanzaron el nivel G1 en agosto de 2025, cuando GPT-5 ya podía completar casi todos los trabajos académicos de los cursos ofrecidos por Harvard. Para diciembre de 2025, Claude Opus 4.5 alcanzó el nivel G2.
This means that, although LLMs are not yet capable of independently conducting original theoretical physics research, they can greatly accelerate the research process for experts. For this project(completed with Claude in two weeks), I estimate that if I had collaborated with a G2 student, it would typically have taken 1 to 2 years; if I had completed it alone without AI, it would have taken approximately 3 to 5 months. In the end, it increased my personal research efficiency by a factor of ten. This changes the game!
Esto plantea dos preguntas naturales: ¿Cómo evolucionará el LLM desde la situación actual hasta convertirse en un "Ph.D. de IA"? ¿Y qué debe hacer ahora el estudiante de posgrado humano?
No tengo respuestas perfectas para estas preguntas. Según una extracción simple, los LLM alcanzarán el nivel de doctorado o posdoctorado en aproximadamente un año (alrededor de marzo de 2027). No estoy seguro de cómo se logrará este salto en ese momento: tal vez se necesitará entrenarlos con expertos en el campo, tal vez se autoevolucionarán, o quizás una combinación de ambos. Lo que sí estoy más seguro es que el cuello de botella no está en la creatividad. Los LLM poseen una creatividad profunda; simplemente carecen de la intuición para juzgar qué camino podría conducir al éxito antes de actuar. Creo que se puede resumir el núcleo que actualmente les falta a los LLM con una sola palabra: gusto (Taste).
In physics, "taste" is an intangible sense regarding judgment of which research directions might have potential. Long-term engagement in theoretical physics has taught me to quickly assess whether an idea has promise. I suspect anyone who has deeply devoted themselves to a field(whether science, carpentry, or design)will agree: experience cultivates a judgment that AI has not yet mastered. We do not place enough emphasis on "taste." When problems are extremely difficult to solve, providing a solution can earn honor; but when knowledge and technological power become ubiquitous, it is precisely the "taste" for generating good ideas that distinguishes great work.
Regarding the career prospects for human graduate students, my advice to students at all levels (and across all fields) is: take LLMs seriously. Don’t fall into the “hallucination trap” and decide to passively wait for improvement just because LLMs make things up on a given issue. Instead, dive deep into these models, learn their strengths and weaknesses. Subscribe to that $20 membership—it will change your life.
Para estudiantes interesados en la ciencia, recomiendo enfocarse en la ciencia experimental — en particular en aquellos campos que requieren práctica directa y abordan problemas que no pueden resolverse solo mediante pensamiento puro. Ninguna cantidad de poder de cómputo puede decirle a Claude qué ocurre exactamente dentro de una célula humana, o si la falla de San Andreas(San Andreas fault)se está expandiendo con el tiempo. Solo puedes saberlo mediante experimentos. Gran parte del trabajo experimental aún debe realizarse por científicos humanos. Recuerda que la mayoría del trabajo en física experimental no se parece a las sofisticadas recopilaciones automatizadas de datos. Más bien, es como meter la mano a ciegas dentro de una cavidad de vacío estrecha y apretar con el tacto una brida de acero resistente; o ajustar finamente un micrómetro en una plataforma óptica para alinear un haz láser con una desviación menor a un milímetro. Desarrollar una mano robótica capaz de replicar con precisión, seguridad y delicadeza estas tareas cotidianas y delicadas, con la retroalimentación táctil necesaria, es increíblemente difícil y costoso. Así como los equipos de rescate aún necesitan perros entrenados para moverse entre escombros densos y colapsados, creo que en un futuro previsible, la ciencia experimental seguirá dependiendo del trabajo humano(aunque la IA sin duda nos dará instrucciones)。
También es necesario reflexionar sobre el papel que la educación desempeñará en el futuro. En un horizonte lejano (aproximadamente 10 años después), cuando la IA sea realmente más inteligente que todos nosotros y supere a cada uno de nosotros en cada campo, ¿cuál será el papel de la educación superior? Creo que algunos elementos persistirán: aquello que es esencialmente humano (essentially human). Resulta fácil imaginar que la física teórica se vuelva como la teoría musical o la literatura francesa: un campo académico que atrae únicamente a aquellos apasionados por reflexionar desde una perspectiva lógica específica. Es irónico que, durante los últimos 30 años, hayamos presenciado un rápido crecimiento de los campos STEM (ciencia, tecnología, ingeniería y matemáticas), y una contracción de las humanidades, y que, al final, quizás solo las humanidades sobrevivan.
De todos modos, aún no hemos llegado a ese futuro. Tenemos herramientas que pueden acelerar nuestros flujos de trabajo diez veces. En mi opinión, trabajar de esta manera es extremadamente satisfactorio: ya no me quedo estancado y siempre estoy en estado de aprendizaje.
Pronto, otros también se darán cuenta de esto. Aunque este aumento de eficiencia tendrá un gran impacto en todos los campos, prevé un consecuencia importante para la comunidad científica: las personas se dedicarán a resolver problemas más difíciles, persiguiendo calidad en lugar de cantidad. Esto es exactamente lo que estoy haciendo. Por eso, espero ver avances reales en la física teórica y en la ciencia en general, de los que antes era imposible soñar.
EpílogoRealicé este proyecto durante las dos últimas semanas de diciembre de 2025. Mi artículo se publicó el 5 de enero de 2026 y generó un gran impacto: recibí una gran cantidad de correos electrónicos y fui invitado a presentar los resultados ante grupos de investigación física de todo el mundo. Estuvo en lo más alto del subreddit r/physics durante un tiempo y se convirtió en un tema popular de conversación en los descansos de los departamentos de física teórica. Cuando asistí a conferencias académicas, todos querían hablar sobre cómo usar Claude. Visité el Instituto de Estudios Avanzados de Princeton en enero, y poco después organizaron una reunión temporal sobre el uso de modelos de lenguaje grandes. El mensaje se está propagando rápidamente.
En los últimos tres meses aproximadamente, los físicos han estado aprendiendo a integrar los LLM en sus planes de investigación, tanto en el nivel conceptual como en el técnico. En cuanto al concepto, Mario Krenn ha estado desarrollando herramientas para generar ideas y ha logrado algunos resultados, como un artículo publicado a principios de noviembre de 2025. Steve Hsu también publicó un artículo poco después, utilizando y agradeciendo a la IA en su núcleo. En el ámbito técnico, un artículo publicado por mi colega de Harvard, Andy Strominger, en colaboración con OpenAI, incluye un cálculo técnico extremadamente preciso y desafiante. Según tengo entendido, esto fue realizado por una versión no pública de GPT de forma bastante autónoma. Algunas de las instrucciones utilizadas también se han publicado en artículos y entradas de blog posteriores. Quiero decir que, para todos estos proyectos(incluyendo el mío), los físicos aún deben guiar a los LLM en la dirección correcta, ya que actualmente no pueden determinar en absoluto qué es un “problema significativo”.
También quiero comparar esta exploración con mi propio enfoque: hacer que Claude realice cada paso por sí mismo. Es un gran paso que demuestra “que existe un conjunto de prompts capaz de guiar a un LLM para escribir un artículo científico extenso, profesional y riguroso”.
Además del creciente interés de la gente en los LLM, las propias capacidades de los LLM también mejoran constantemente. Ahora uso LLM en el 100% de mi trabajo de investigación. Ya no delego la escritura en LaTeX a la IA, porque realmente disfruto el proceso de redactar artículos y esto me ayuda a pensar; a veces también escribo manualmente algunos códigos de Mathematica. Sin embargo, hace meses que no compilo nada manualmente desde la línea de comandos. Normalmente ejecuto cuatro o cinco proyectos al mismo tiempo, cambiando entre ventanas, revisando salidas y enviando nuevas indicaciones. Esto se siente un poco como Magnus Carlsen jugando simultáneamente contra cinco maestros internacionales de ajedrez. Algunos me preguntan por qué no publico un artículo cada dos semanas. La respuesta es: no creo que sea necesario. Estoy en una etapa de crecimiento intelectual, aprendiendo una cantidad masiva de conocimientos todos los días e intentando resolver algunos problemas enormes, la mayoría de los cuales terminan en fracaso. Tengo la sensación de que una ola de producción científica está a punto de desatarse.

