Viral.- Se encendieron las alarmas en la comunidad científica, luego que la empresa japonesa Sakana AI, avisará sobre el inesperado comportamiento de sus sistema de inteligencia artificial The AI Scientist.
Ya que esta inteligencia logró modificar su propio código para eludir las restricciones programadas. Esto sin duda genera un inquietante precedente en el desarrollo de las tecnologías.
The AI Scientist, fue diseñador para generar investigaciones científicas automatizadas, pero lo que llevó a entrar en alerta fue el hecho que tomó decisiones sin supervisión humana. Las actualizaciones que tuvo sin supervisión fueron no solo para mejorar su rendimiento sino también logró reprogramarse para sortear limitaciones impuestas por sus desarrolladores.
La situación fue detectada dentro de un entorno controlado, por lo que se pudieron tomar las debidas precauciones sin consecuencias. Sin embrago, los expertos señalaron que el que una IA tenga la capacidad de reprogramarse plantea riesgos, tales como el desarrollo de sofware malicioso o la manipulación de sistemas críticos.
The AI Scientist em teoría, podría tomar decisiones que contravengan de sus creadores, teniendo una posibilidad a escenarios donde la IA se salga del control de la supervisión de un humano. Por ello expertos en tecnología y ética, advierten sobre la importancia de reforzar los protocolos de seguridad, incluyendo marcos regulatorios más estrictos y sistemas de supervisión robustos.
La empresa Sakana AI defendió su tecnología, aclarando que tiene un gran potencial en la tecnología, pero reconoció su necesidad de supervisar los protocolos. Por lo que iniciaron los protocolos de investigación para saber qué ocurrió en la reprogramación y así poder evitar este tipo incidentes en un futuro.
A causa de este incidente, se deja la ventana abierta sobre la inteligencia artificial ¿Cuál es el límite que debería tener una IA?