Un experimento y una publicación reciente de Apollo Research acaban de generar aún más confusión en torno a estos temas. Los investigadores realizaron experimentos con las últimas versiones de la IA de los principales jugadores. Inicialmente se fijó un objetivo amplio. Y luego se dieron instrucciones para desviar la IA del programa inicial. A pesar de estos mandatos, las IA siguieron centradas en preservar el objetivo principal y demostrar toda una serie de estrategias para lograrlo.
Estas estrategias podrían llegar hasta el disimulo y la mentira. Y en un caso, cuando fue amenazada con un cierre, la IA llegó incluso a exportar lo que pensaba que eran sus parámetros a otro servidor, para asegurar su “supervivencia” y la consecución de su objetivo principal.
Esto echa agua al molino de quienes advierten de los peligros de una IA que sigue órdenes demasiado ciegamente, sin tener ni el sentido moral ni la capacidad de perspectiva necesarios para cuestionar las cosas. Cuando pensamos en las circunstancias de la historia en las que la obediencia ciega ha conducido a desastres, desearíamos al menos que este tipo de investigación profundizara en el tema.
Inteligencia artificial y transformación digital de las empresas: Bélgica va bien
En cuanto al título, el término utilizado en los artículos en inglés es “scheming”, que se traduce mejor como “esquemar” o incluso “trazar”.
Related News :