- Las empresas de inteligencia artificial han estado ajustando sus ofertas y directrices electorales antes del día de las elecciones.
- Perplexity lanzó un Centro de información electoral con información sobre candidatos, logística de votación y resultados.
- Mientras tanto, Google está limitando el contenido electoral generado por IA para evitar los riesgos que conlleva.
ChatGPT no existió durante las últimas elecciones presidenciales de 2020. Su lanzamiento hace dos años inició una ola de herramientas y chatbots de inteligencia artificial generativos integrados en productos de consumo populares como la Búsqueda de Google.
Antes de las elecciones, las empresas detrás de los productos tuvieron que decidir qué restricciones, si las hubiera, implementarían en el contenido generado por IA relacionado con las elecciones, analizando los riesgos asociados.
Algunos, como la startup de inteligencia artificial Perplexity, se están inclinando fuertemente por usar la inteligencia artificial para responder preguntas sobre las elecciones.
El motor de búsqueda de IA lanzó un “Centro de información electoral” dedicado que utiliza IA para proporcionar información sobre las próximas elecciones y el seguimiento de los resultados. El centro incluye detalles sobre los requisitos de votación, cómo encontrar su lugar de votación y los horarios de votación, y un análisis resumido por IA sobre las medidas electorales y los candidatos, escribió la compañía en un anuncio.
“Perplexity utiliza un proceso llamado recuperación-generación aumentada para identificar información relevante y resumirla de una manera que se adapte a la consulta del usuario”, dijo la portavoz de Perplexity, Sara Platnick, a Business Insider.
Para preguntas relacionadas con las elecciones, la compañía está utilizando un “conjunto seleccionado” de fuentes no partidistas y verificadas, dijo la compañía. El centro independiente no utiliza el conocimiento almacenado de los datos de entrenamiento del modelo en sus respuestas, lo que ayuda a minimizar las alucinaciones, dijo Platnick a BI.
Perplexity también comenzará a ofrecer actualizaciones en vivo sobre las elecciones el martes utilizando datos de The Associated Press. Otras respuestas utilizarán información de Democracy Works y otras fuentes objetivas no partidistas como Ballotpedia y organizaciones de noticias, dijo Platnick.
Alon Yamin, cofundador y director ejecutivo de la plataforma de análisis de texto basada en inteligencia artificial Copyleaks, dijo que el enfoque de Perplexity “sin duda puede ayudar a filtrar y contextualizar el contenido”, ayudando a los usuarios a acceder a fuentes confiables.
Yamin dijo que el uso de IA para obtener información electoral conlleva beneficios potenciales. La IA puede proporcionar actualizaciones en tiempo real y ayudar a identificar tendencias, sentimiento de los votantes y cuestiones clave.
Sin embargo, Yamin dijo que la posibilidad de que la IA tenga alucinaciones y problemas de precisión presenta riesgos.
Otras empresas están adoptando enfoques diferentes. OpenAI continuará integrando respuestas relacionadas con las elecciones en ChatGPT y al mismo tiempo proporcionará algunas funciones adicionales a la luz de las elecciones.
A partir del 5 de noviembre, quienes pregunten a ChatGPT sobre resultados electorales verán un mensaje que anima a los usuarios a consultar fuentes como Associated Press y Reuters, o juntas electorales estatales y locales para obtener “la información más completa y actualizada”. dijo la compañía en una publicación actualizada el 31 de octubre.
OpenAI dijo que estaba “probando activamente las salvaguardas” implementadas durante el último año y monitoreando cualquier problema. También dijo que continuará ajustando sus medidas de protección, que incluyen la transparencia en torno al contenido generado por IA y evitar que los chatbots pretendan ser personas reales.
ChatGPT también dirigirá a los usuarios al sitio de información electoral de EE. UU. CanIVote.org cuando se les hagan preguntas de procedimiento relacionadas con las elecciones.
Claude de Anthropic implementó de manera similar una función emergente que permite a los usuarios que solicitan información de votación ser redirigidos a TurboVote, un recurso no partidista de Democracy Works, escribió en una publicación.
Anthropic tiene otras barreras de seguridad, incluida la prohibición de que los usuarios lo utilicen para promocionar un candidato o tema específico. Dijo que también evitaría que el chatbot se utilice para generar información errónea sobre leyes electorales, candidatos o temas relacionados. En su publicación, la compañía dijo que los resultados se limitarán a solo texto para ayudar a eliminar “el riesgo de falsificaciones profundas relacionadas con las elecciones”.
Si bien las actualizaciones de las elecciones en vivo pueden resultar útiles para los usuarios, el contenido electoral generado por IA plantea una serie de riesgos.
Yamin dijo que la IA puede difundir información sesgada, malinterpretar datos y crear narrativas falsas. También añadió que estos modelos son “tan buenos como los datos con los que se entrenan”, lo que abre el riesgo de que las respuestas generadas por IA reflejen el sesgo de los datos con los que se entrenan.
Los malentendidos podrían amplificarse si la IA malinterpreta la información y ofrece resultados inexactos, especialmente en un entorno electoral en rápido movimiento y seguido de cerca, dijo Yamin a BI.
Googleque experimentó algunos fallos de IA muy publicitados con sus Gemini AI y AI Overviews, optó por implementar restricciones sobre lo que los usuarios pueden preguntar a sus productos de IA sobre las elecciones. Google ha dicho que está restringiendo que su chatbot de IA Gemini responda preguntas sobre elecciones “Por extrema precaución”.
Una búsqueda similar en el producto de búsqueda principal de Google el martes no generó un resumen de descripción general de IA, que mostraba el carrusel de historias “Top Stories” de los editores.
Google no respondió de inmediato a una solicitud de comentarios de Business Insider.
Brad Carson, cofundador y presidente de la organización sin fines de lucro Americans for Responsible Innovation, dijo a BI que si bien el enfoque de Google es encomiable, no es una solución global al problema.
Carson dijo que combatir la desinformación “no es una tarea fácil” y, si bien es inteligente que las empresas intenten hacer más para limitar la información errónea, el gobierno debería trabajar en una legislación que exija que las empresas de inteligencia artificial etiqueten claramente la información que brindan a los usuarios.
“Creo que otros productos probablemente llenarán el vacío que Google está dejando, pero creo que es responsabilidad de Google tratar de alejarse un poco de esto”, dijo Carson.
Related News :