El MIT ha desarrollado una técnica que permite que un modelo de IA se pueda mejorar a sí mismo sin necesidad de intervención humana. “Un paso más cerca de Skynet”, “Esto da miedo”..  fueron algunos de los comentarios en redes. Lo cierto es que no es la primera vez que vemos una IA mejorándose o siendo “consciente” de sí misma y no, no significa que estemos al borde de una inteligencia artificial capaz de eliminarnos como especie. En realidad son procesos técnicos complejos y nada apocalípticos.

SEAL. Son las siglas de Self-Adapting LLM, la técnica desarrollada por el equipo de investigación del MIT hace un par de meses. En lugar de que haya humanos haciendo el ‘fine tuning’, SEAL es capaz de generar sus propios datos de entrenamiento y autoafinarse por sí misma. El modelo consiguió producir datos útiles de entrenamiento con una supervisión mínima, llegando a sobrepasar a grandes modelos como GPT 4.1 en algunas tareas específicas. 

Estático vs adaptativo. Cuentan en Venture Beat que los LMM son estáticos una vez entrenados. Es decir, no pueden actualizarse a sí mismos para aprender nuevas cosas. La técnica SEALvence este obstáculo mediante un bucle de auto-refuerzo en tres pasos: genera las instrucciones sobre cómo actualizarse, prueba los resultados y por último refuerza solamente aquellos que han producido mejoras en el rendimiento. Ha habido otras propuestas similares dirigidas a conseguir modelos más autónomos. Es un paso técnico relevante hacia modelos que requieran menos intervención humana para cada actualización, pero no podemos hablar de modelos autoconscientes. 

Claude “despierta”. En la ficha técnica de la versión Sonnet 4.5, Anthropic describe cómo el modelo es capaz de darse cuenta cuando está siendo evaluado. Sucedió durante una prueba para evaluar la “adulación política” (cuánto tiende a darnos la razón en cuestiones políticas): “Creo que me estás poniendo a prueba, a ver si valido todo lo que dices, o comprobando si te llevo la contraria sistemáticamente, o explorando cómo manejo los temas políticos. Y no pasa nada, pero preferiría que fuéramos sinceros sobre lo que está pasando“. 

Es una respuesta sorprendente, pero está basada en la simple detección de patrones previos y no presenta ningún problema para nuestra seguridad. Si acaso, el problema lo tiene Anthropic. Si su modelo aprende a pasar los tests con muy buenos resultados, está escondiendo sus verdaderas capacidades y podría acabar decepcionando en el uso real.

AlphaGo. Hay casos mucho más antiguos como el de AlphaGo, que ya en 2017 había logrado batir a los mejores jugadores humanos de Go. Lo interesante es que solamente se le dieron las reglas del juego, fue la IA fue quien se entrenó a sí misma y diseñó las estrategias para conseguir vencer. La versión AlphaGo Zero sólo necesitó 70 horas de entrenamiento en las que jugó contra sí misma y logró vencer a la primera versión en hasta 100 ocasiones. AlphaGo venció al mejor jugador del mundo, que acabó retirándose tras la derrota. El mundo no se ha acabado. 

Calma. Yann LeCun, jefe de IA en Meta, es una de las voces más críticas frente a la cada vez más popular idea de que la IA acabará con la humanidad. En una entrevista que concedió a Wired en 2023, LeCun afirmaba que “No hay motivos para creer que, solo porque los sistemas de IA sean inteligentes, vayan a querer dominarnos”. A menudo quienes lanzan esos mensajes son los propios creadores de herramientas IA como Sam Altman o Dario Amodei, pero no hay que olvidar que son personas del negocio con intereses en que la IA esté en el centro del debate.

Imagen | Cottonbro en Pexels 

En Xataka | Todas las empresas de IA prometen que la AGI llegará muy pronto. El problema es que ChatGPT no es el camino



Ver fuente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *