IA en la ciencia: han llegado los investigadores virtuales

Un investigador de IA totalmente automatizado ha producido un artículo que cumple estándares científicos. Esto podría acelerar descubrimientos, pero también plantea preocupaciones sobre sus riesgos

by Redacción LaGaceta503

La investigación científica puede ser un proceso largo y tedioso. Y también frustrante, ya que la financiación es limitada, al igual que el tiempo. ¿Una solución para que la ciencia sea más eficiente? Que la lleve a cabo un investigador robot, un colega de IA. Al menos en teoría.

El primer investigador de IA automatizado

En 2024, la startup Sakana.ai, con sede en Tokio, presentó «The AI scientist«, un sistema de IA capaz de crear nuevas investigaciones de aprendizaje automático desde cero, de forma totalmente autónoma y por tan solo 15 dólares por artículo.

El modelo puede recorrer todo el proceso de investigación sin ningún tipo de ayuda humana: desde crear nuevas hipótesis, hasta ejecutar el código y redactar los resultados.

Y va incluso más allá: cuenta con su propio sistema de revisión por pares que evalúa automáticamente la calidad del artículo, asegurándose de que cumple con los estándares científicos.

Cuando un equipo independiente de investigadores probó la versión de 2024 del sistema, la calidad de sus resultados les pareció bastante baja. Aunque, efectivamente, fue capaz de poner en práctica por sí solo todo el ciclo de una investigación, el resultado fue —como dicen los autores— como el de «un estudiante universitario desmotivado que se apresura para cumplir un plazo».

Las cuestiones más preocupantes que surgieron del experimento fueron secciones incompletas del trabajo, referencias obsoletas o limitadas, y resultados numéricos incorrectos -o incluso inventados-, a menudo denominados «alucinaciones», en términos de IA.

Aun así, los investigadores vieron potencial en el sistema, sobre todo por su eficiencia. Calculaban que lo que a ese «estudiante universitario desmotivado» le habría llevado al menos 20 horas, el colega de IA era capaz de hacerlo en solo 3,5. Y todo ello por un coste medio de entre 6 y 15 dólares.

Un artículo generado por IA, aceptado en un taller de un congreso

Un año y medio después, Sakana.ai ha puesto a prueba su última versión del sistema: se presentaron tres artículos generados por IA -junto con 40 creados por humanos- para su revisión por pares en un taller de un congreso de primer nivel sobre aprendizaje automático. Los revisores sabían que algunos de los trabajos habían sido generados por IA, pero no sabían cuáles.

Alrededor del 70 por ciento de los artículos presentados superaron la primera ronda. Dos de los trabajos generados por IA no pasaron el corte, pero uno de ellos sí lo hizo, lo que significa que cumplía con los estándares científicos requeridos.

Sin embargo, la última versión del «científico de IA» todavía tiene sus defectos, como ideas poco desarrolladas, problemas estructurales y muchos tipos de alucinaciones. Lo cierto es que, como muestra su propio sistema de evaluación, la calidad de los artículos parece aumentar de forma constante con el tiempo, lo que significa que un futuro con científicos virtuales no parece tan lejano.

La IA podría resolver el problema de la ineficiencia en la ciencia

Los sistemas de IA son incansables. Pueden leer artículos de investigación en cuestión de segundos, no se quejan por hacer horas extras y no hay que pagarles. O, por lo menos, cuestan mucho menos que un investigador humano.

Esto podría significar más resultados en menos tiempo. Y con ello, un proceso mucho más eficiente para el descubrimiento científico. Sin embargo, la pregunta es hacia dónde nos llevarán esos descubrimientos.

Cuando un humano lleva a cabo una investigación, el producto final es el resultado de docenas, si no cientos, de pequeñas decisiones. Ningún investigador abordaría jamás un tema de investigación exactamente de la misma manera.

Estas decisiones, cuando las toma la IA, desaparecen tras lo que se considera un sistema «sobrehumano», uno que podría considerarse más inteligente, más rápido y más objetivo que nosotros.

Los riesgos de los investigadores virtuales

Entonces, ¿qué pasaría si confiáramos en la IA, en lugar de en nuestras propias mentes diversas? La antropóloga Lisa Messeri y la neurocientífica Molly Crockett prevén lo que ellas llaman un «monocultivo de la ciencia».

En agricultura, el monocultivo es la práctica de cultivar solo un tipo de cultivo -en lugar de varios- durante un periodo de tiempo. Esto suele significar mayores beneficios. Pero, al mismo tiempo, aumenta el riesgo de que los cultivos sean víctimas de plagas y enfermedades.

Algo similar podría ocurrir cuando dejamos que los sistemas de IA hagan ciencia por nosotros. El tipo de investigación que inicia la IA podría ser solo el que mejor se adapta a ella, a expensas de proyectos que requieren más contexto y matices: el «toque humano».

Esto podría no solo reducir el alcance de la ciencia, sino también suponer un riesgo de errores sistemáticos, cuya percepción desaparece una vez que los humanos se apartan del panorama.

«El mayor riesgo es confiar demasiado en los resultados generados por la IA. La contramedida clave es la capacidad humana de pensar de forma crítica», explicó Iryna Gurevych, profesora de Procesamiento Ubicuo del Conocimiento, al Science Media Center Germany.

Sin pensamiento crítico, es posible que, objetivamente, podamos producir más, pero acabemos entendiendo menos.

Con información de dw

You may also like