El progreso de la Emotion AI y sus implicaciones para el marketing

El progreso de la Emotion AI y sus implicaciones para el marketing
El progreso de la Emotion AI y sus implicaciones para el marketing
-

Hoy decidí divertirme un poco con los generadores de imágenes de IA y les pedí que me mostraran diferentes emociones en el rostro de una persona: ira, felicidad, disgusto, etc. Como era de esperar, los resultados mostraron expresiones típicas. La ira se mostraba con el ceño fruncido y los dientes apretados, la felicidad con una amplia sonrisa y el disgusto con la nariz arrugada.

1731009180_765_El-progreso-de-la-Emotion

1731009180_779_El-progreso-de-la-Emotion

Pero mientras miraba estas imágenes, algo no me parecía bien. ¿Son las emociones humanas tan predecibles?

Las investigaciones sugieren lo contrario. Las emociones tienen muchos matices y la forma en que las expresamos varía según quiénes somos, de dónde somos y qué estamos pasando en ese momento. Podrías sonreír cuando estés furioso porque estás en un entorno profesional o podrías llorar de alegría. El contexto da forma a tus emociones, y ahí es donde las cosas se ponen complicadas para Emotion AI, una tecnología que tiene como objetivo detectar e interpretar nuestros sentimientos a partir de expresiones faciales, voz o texto.

¿Qué es la IA de las emociones?

La IA de las emociones, o Computación Afectiva, fue conceptualizada por primera vez en la década de 1990 por la profesora del MIT Rosalind Picard, quien argumentó que para que las computadoras interactuaran con los humanos, necesitaban comprender las emociones. Lo que comenzó como un análisis de sentimientos (que significa interpretar si un fragmento de texto es positivo o negativo), evolucionó hasta convertirse en intentos mucho más ambiciosos de leer toda la gama de emociones humanas utilizando algoritmos, cámaras y micrófonos.

El análisis de sentimientos es un proceso mucho más simple. Busca palabras clave como “feliz” o “frustrado” en el texto y asigna una puntuación positiva o negativa. La IA de las emociones, por otro lado, intenta profundizar en las expresiones faciales, los tonos vocales o las señales fisiológicas para evaluar las emociones en tiempo real. Mientras que el análisis de sentimientos le indica cómo podría sentirse alguien en función de su lenguaje, Emotion AI afirma saber lo que alguien siente en función de su comportamiento. Un proceso que podría resultar útil en categorías como servicio al cliente, ventas, marketing y más.

La última vez que la IA emocional se convirtió en un tema candente fue en 2019, cuando el mundo de la IA y el aprendizaje automático se centraba en la visión por computadora y no en el arte y el contenido generativos. En aquel entonces, un equipo de investigadores publicado un estudio, que concluye que las emociones humanas no pueden determinarse con precisión únicamente mediante los movimientos faciales. La noción de que podemos enseñar a la IA a reconocer los sentimientos humanos imitando cómo las personas leen las expresiones faciales, el lenguaje corporal y el tono de voz es errónea.

Las grandes empresas de tecnología como Microsoft, IBM y Google han lanzado sus propias versiones de Emotion AI. Azure Cognitive Services de Microsoft ofrece detección de emociones como parte de su paquete de visión por computadora, lo que permite a los desarrolladores integrar el reconocimiento de emociones en sus aplicaciones. Google con su API Cloud Vision puede etiquetar emociones en fotos desde felicidad, enojo, sorpresa o tristeza, basándose en un análisis facial. Además, Watson de IBM también se sumerge en el análisis emocional, utilizando el procesamiento del lenguaje natural para detectar emociones en el texto.

Pero a pesar de estas herramientas avanzadas disponibles hoy en día, las investigaciones muestran que el reconocimiento de emociones no es tan preciso como parece. A informe de la Asociación de Ciencias Psicológicas sugiere que no existe una expresión universal para las emociones. Alguien de una parte del mundo puede mostrar felicidad de manera diferente a alguien de otra. Más importante aún, muchos consumidores sienten que sus las emociones se pasan por alto durante las interacciones digitales, lo que genera una brecha en la empatía entre humanos y máquinas.

Pero las empresas ahora están implementando asistentes y chatbots de IA para atender a los consumidores y esto requiere precisión. Una industria en particular está entusiasmada con la detección de emociones humanas: la publicidad y el marketing.

IA emocional: el sueño del especialista en marketing

Imagine un futuro en el que una campaña publicitaria pueda detectar su estado de ánimo y adaptar el contenido a él. Si te sientes deprimido, la IA podría consolarte; si estás feliz, obtendrás algo alegre y divertido. Podría cambiar la forma de comprar e interactuar con las marcas.

Las marcas ya están experimentando con esto. Unilever ha utilizado la tecnología de codificación facial de Affectiva para comprender cómo las personas responden emocionalmente a sus anuncios, rastreando las expresiones faciales para ver si los espectadores sienten felicidad, disgusto o sorpresa. De manera similar, las respuestas al anuncio de IA de Coca-Cola fueron monitoreado con la ayuda de EmotionTrac, una herramienta que mide las respuestas emocionales a los medios mediante la captura de expresiones faciales y otros datos biométricos. Los conocimientos adquiridos tenían como objetivo crear campañas de marketing personalizadas e impulsadas por las emociones.

A reciente La investigación también exploró el potencial de la IA para detectar emociones humanas en publicaciones en X (anteriormente Twitter), en particular su influencia en el comportamiento de los donantes hacia organizaciones sin fines de lucro. Para mejorar la detección de emociones, la investigación utilizó un modelo de aprendizaje por transferencia transformadora, previamente entrenado en extensos conjuntos de datos, para identificar emociones específicas en los tweets. Los hallazgos sugirieron que las emociones expresadas en publicaciones sobre organizaciones sin fines de lucro impactaron significativamente el sentimiento del público y el comportamiento de donación posterior.

Más recientemente, Microsoft actualizado su asistente Copilot AI con una voz más atractiva y capacidades para analizar páginas web en tiempo real, con el objetivo de mejorar la interacción del usuario. Esta actualización refinó el tono de Copilot, haciéndolo sentir como un oyente activo, al mismo tiempo que introdujo características como ‘Think Deeper’ para razonar a través de decisiones y ‘Copilot Vision’ para discutir lo que los usuarios ven en su navegador.

El potencial de Emotion AI en marketing es innegable. Ofrece a las marcas una forma de conectarse con los consumidores a un nivel más profundo. Pero ¿qué pasa cuando la IA sabe demasiado?

Los desafíos de detectar emociones

Una cosa es que un anuncio se dirija a los intereses de los consumidores basándose en compras pasadas, pero es completamente diferente si se dirige a sus vulnerabilidades emocionales actuales. La capacidad de aprovechar sus sentimientos podría conducir a prácticas de manipulación, tal vez incluso presionarlos para que tomen decisiones.

También existe la suposición de que la IA podría equivocarse. Teniendo en cuenta que la IA todavía está aprendiendo la ortografía, podría malinterpretar el enojo de un consumidor por calma. Las diferencias culturales desempeñan un papel en la expresión emocional, lo que dificulta que la IA interprete los sentimientos de forma universal. A estudio revelado que los participantes chinos tienden a centrarse más en los ojos para interpretar las expresiones faciales, mientras que los caucásicos occidentales dan importancia a las cejas y la boca. Según los hallazgos de la investigación, estas diferencias culturales pueden malinterpretar las señales emocionales durante la comunicación intercultural. Si los propios humanos luchan por comprender los sentimientos y las señales de los demás, ¿cómo puede la IA detectarlos con precisión?

Está la cuestión del sesgo. Los sistemas de IA son tan buenos como los datos con los que se entrenan, y si los datos están sesgados hacia ciertas poblaciones, los resultados podrían estar sesgados. Los estudios indican que ciertos sistemas de IA emocional tienen más probabilidades de asignar emociones negativas a los rostros de personas con tonos de piel oscuros. Esto genera preocupación sobre posibles sesgos si estas tecnologías se utilizan en áreas como el reclutamiento, las evaluaciones de desempeño, el diagnóstico médico o la aplicación de la ley.

Además, el problema son los datos. Las empresas ya tienen acceso a sus datos y algoritmos digitales. Ahora los consumidores tendrán que preocuparse de que sus datos emocionales se vendan a terceros para que las marcas puedan mostrarle anuncios basados ​​en su estado de ánimo.

Si bien la IA puede mejorar las experiencias de los clientes, también corre el riesgo de invadir nuestros sentimientos privados y capitalizarlos con fines de lucro. Teniendo en cuenta que las emociones son personales y subjetivas, ¿se debería permitir que la IA sepa tanto sobre nuestro mundo interior?

En última instancia, la IA de las emociones requiere una regulación cuidadosa y directrices éticas para garantizar que nuestras emociones sigan siendo nuestras. La Ley de IA de la Unión Europea, aprobada en mayo de 2024, prohíbe la IA de manipular el comportamiento y prohíbe el reconocimiento de emociones en lugares como lugares de trabajo y escuelas. Permite la identificación de expresiones emocionales pero no de estados emocionales. Por ejemplo, el gerente de un centro de llamadas podría actuar sobre la IA detectando un tono de mal humor, pero no puede asumir que la persona está realmente de mal humor.

A medida que la tecnología sigue desarrollándose, ¿estamos preparados para un mundo en el que las máquinas sepan cómo nos sentimos y cómo eso podría cambiar la forma en que interactuamos con ellas y entre nosotros? Una cosa es segura: la IA tiene un largo camino por recorrer antes de comenzar a detectar con precisión las emociones humanas. Después de todo, como director y productor, Robert De Niro dijo una vez: “La gente no intenta mostrar sus sentimientos, intenta ocultarlos”.

Decode es una serie semanal en la que decodificaremos lo que está sucediendo en el mundo de las redes sociales y la tecnología.

-

PREV Bilbao ofrece el derbi vasco
NEXT “Gestión de tarjetas unidireccional y mini recuperación”