Un estudio reciente, publicado en las actas de la 62ª reunión anual de la Association for Computational Linguistics, asegura que los grandes modelos lingüísticos (LLM, por sus siglas en inglés) de Inteligencia Artificial (IA) no representan una amenaza existencial para la humanidad. Según los investigadores, estos modelos, como ChatGPT, carecen de la capacidad de aprender de forma independiente, lo que los hace controlables y predecibles.
El estudio responde a las crecientes preocupaciones de que los LLM podrían desarrollar habilidades imprevistas o incluso peligrosas a medida que se vuelven más sofisticados. Sin embargo, los científicos sostienen que estos temores no están justificados. Harish Tayyar Madabushi, coautor del estudio y académico de la Universidad de Bath, explica que los modelos de IA no pueden resolver problemas o realizar tareas para las que no han sido previamente programados.
"Nuestro estudio demuestra que el temor a que un modelo de IA haga algo completamente inesperado o peligroso es infundado", señaló Tayyar Madabushi. Añadió que el alarmismo en torno a las capacidades de estos modelos podría obstaculizar su adopción y desarrollo, desviando la atención de los problemas reales que requieren nuestra atención.
Capacidades emergentes bajo la lupa
Uno de los aspectos más debatidos sobre los LLM es la posibilidad de que desarrollen "capacidades emergentes", es decir, habilidades o comportamientos no previstos por sus programadores. Para examinar esta posibilidad, los investigadores evaluaron cuatro LLM distintos, sometiéndolos a tareas y proporcionando información adicional sobre diversos temas.
Los resultados fueron concluyentes: no encontraron pruebas de que estos modelos desarrollen pensamiento propio o que actúen fuera de los límites para los que fueron diseñados. Tayyar Madabushi afirmó que la investigación demostró claramente la ausencia de razonamiento complejo emergente en estos modelos.
El verdadero riesgo: El mal uso de la IA
Iryna Gurevych, coautora del estudio, subrayó que, aunque la IA no representa una amenaza en términos de desarrollar habilidades autónomas peligrosas, sigue habiendo riesgos asociados a su mal uso por parte de los humanos. "El peligro real radica en cómo las personas podrían explotar estos modelos, por ejemplo, para crear noticias falsas o cometer fraudes", advirtió Gurevych.
Por ello, Gurevych sugiere que las futuras investigaciones deberían enfocarse en mitigar los riesgos que surgen del uso indebido de la IA, en lugar de centrarse en miedos infundados sobre el desarrollo de capacidades imprevistas. "Es crucial que nos enfoquemos en los riesgos reales, como la generación de desinformación, y desmitifiquemos las narrativas que rodean a los LLM," concluyó.
IO