El futuro ya está aquí y puede que no te guste.

El futuro ya está aquí y puede que no te guste.
El futuro ya está aquí y puede que no te guste.
-

En febrero, un hombre causó revuelo en la web al desarrollar un programa, basado en la tecnología ChatGPT, para chatear en Tinder. A través de inteligencia artificial, charló con 5.200 mujeres. Y fue gracias a este método que acabó encontrando esposa. ¿Pero es hoy la IA tan eficiente que puede engañar a los humanos? Según un estudio, ya es casi imposible distinguir entre una conversación con un chatbot como ChatGPT y una conversación con una persona real.

Una prueba reveladora

Investigadores del Departamento de Ciencias Cognitivas de la Universidad de California en San Diego realizaron una serie de pruebas de Turing (que consisten en determinar si la IA es capaz de razonar como un humano) a ELIZA, un chatbot de los años 60, modelo GPT-3.5. y el modelo GPT-4. Básicamente, los participantes del estudio mantuvieron conversaciones de cinco minutos, ya sea con un humano o con uno de estos chatbots. Luego se les preguntó si estaban charlando con un humano o con una inteligencia artificial. Y los resultados fueron sorprendentes. De hecho, si solo el 22% de las personas que conversaron con ELIZA pensaron que estaban hablando con un humano, esta tasa es muy alta, 54%, entre las personas que conversaron con GPT-4. Por otro lado, la tasa es del 67% entre las personas que charlaron con humanos reales.

Tenga en cuenta que para que GPT-4 sea convincente, los investigadores personalizaron las respuestas del modelo mediante un mensaje personalizado que, por ejemplo, definía el tono a adoptar. Pero en cualquier caso, además de mostrar lo avanzado que está el GPT-4, el estudio también advierte de los peligros de este desarrollo tecnológico. “Los hallazgos tienen implicaciones para los debates sobre la inteligencia artificial y, lo que es más urgente, sugieren que el engaño de los sistemas actuales de IA puede estar pasando desapercibido”leemos en la publicación de los investigadores, que está alojada en Arxiv.

Ya se está preparando una IA aún más inteligente

El estudio destaca la capacidad de GPT-4 para engañar a los humanos, mientras que OpenAI ya está trabajando en una versión aún más avanzada de este modelo. En una entrevista, Mira Murati, CTO de OpenAI, analizó la próxima evolución de la tecnología ChatGPT. Esto compara el nivel de inteligencia de GPT-3 con el de un niño. En cuanto a GPT-4, tendría el nivel de inteligencia de un estudiante de secundaria. El siguiente modelo, en cambio, tendría la inteligencia de alguien con un doctorado. “Las cosas están cambiando y mejorando bastante rápido”, ella explica. Y si OpenAI no tiene una fecha precisa, por el momento Mira Murati estima que este modelo con nivel doctoral podría llegar dentro de un año y medio.

En un comunicado de prensa anunciando la creación de un comité de seguridad interno, OpenAI también discutió el desarrollo de su próximo modelo de IA: “OpenAI comenzó recientemente a entrenar su próximo modelo de frontera y anticipamos que los sistemas resultantes nos llevarán al siguiente nivel de capacidades en nuestro camino hacia AGI. Si bien estamos orgullosos de construir y llevar al mercado modelos que son líderes en la industria en capacidades y seguridad, esperamos un debate sólido en este momento importante”.

  • Cada vez es más difícil saber si estás chateando con un humano o con una inteligencia artificial
  • En una prueba de Turing, el 54% de los participantes que chatearon con GPT-4 pensaron que estaban chateando con una persona real
  • Sin embargo, OpenAI ya está desarrollando una versión aún más avanzada de su modelo de inteligencia artificial

Para no perderte ninguna novedad de Presse-citron, síguenos en Google News y WhatsApp.

-

PREV Esta cámara de vigilancia para interiores cuesta la mitad de precio
NEXT Este proyector de vídeo muy compacto y de alcance ultracorto se olvida rápidamente