Escaneando los rostros en las pantallas de los móviles
Allí miran con la cabeza inclinada, pero no en oración.
Este es el perfil de un usuario típico de un teléfono inteligente que navega por la web en busca de lo que sigue. A medida que pasa de una página a otra, desplazándose hacia arriba y hacia abajo, puede experimentar una de las seis emociones básicas: miedo, ira, alegría, tristeza, asco y sorpresa.
Si la página vista desencadena la emoción correcta, ese espectador podría convertirse en un cliente potencial. Pero, ¿qué emoción puede hacer eso? ¿Se puede hacer esto en un entorno ruidoso y que distraiga (como en la vida real)? ¿Y puedes puntuar la interacción? ¿Usar la efectividad de los anuncios para optimizar una campaña?
Primero algunos antecedentes
La hipótesis de que todos los humanos experimentan una de las seis emociones básicas fue propuesta por Psicólogo Paul Ekman. Su trabajo también inspiró a otros que trabajaban en la intersección de la psicología y el marketing que buscaban formas de medir las respuestas emocionales para poder afinar su enfoque de ventas.
El aprendizaje automático y el modelado de IA han sido utilizados por diferentes empresas, todas adoptando diferentes enfoques para leer las emociones a través de las expresiones faciales humanas.Algunos de estos enfoques estaban limitados por la tecnología, lo que requería que el sujeto de prueba estuviera sentado frente a una PC de escritorio, ya sea en un laboratorio o en casa para que la cámara digital pueda escanear sus rostros y calibrar esas imágenes con el software, nos dijo Max Kalehoff, vicepresidente de crecimiento y marketing de Realeyes.
Para las personas que usan teléfonos inteligentes, quedarse quieto el tiempo suficiente para calibrarse no funcionaría.
Conocimiento
Realeyes creó su aplicación móvil de reconocimiento facial basándose en trabajos anteriores. Su IA fue entrenada con casi mil millones de fotogramas. Estas imágenes fueron luego anotadas por psicólogos en diferentes países para dar cuenta de los matices culturales. El algoritmo, a su vez, desperdició anotaciones entrenadas, explicó Kalehoff, y entregó más del 90 % de precisión.
El potencial de Realeyes para trabajar en la plataforma móvil se superpone con la explosión de las redes sociales, y en esta área la aplicación es agnóstica. No importa lo que esté viendo el usuario: TikTok, YouTube, Facebook, Instagram. La aplicación Realeyes está ahí para medir su reacción.
"Hasta donde sabemos, esta es la primera vez que esto sucede", dijo Kalehoff. "Estamos respondiendo a la demanda de reconocer la atención de los creativos en un entorno móvil".
Para llevar Realeyes a los teléfonos inteligentes, los usuarios deben iniciar sesión y luego son dirigidos a un entorno donde pueden ver algunos anuncios. Se les pedirá que se desplacen por algunas pantallas, "lo que suelen hacer”, dijo Kalehoff. La aplicación se instalará en el teléfono y ayudará a medir los datos de atención visual y los datos de participación del flujo de clics. "Nuestra definición (de atención) se enfoca en un estímulo mientras ignora todos los demás estímulos", dijo. "La experiencia para los participantes es de menos de tres minutos".
Busque datos en los lugares correctos
Lo que Realeyes busca depende de los medios que el consumidor está mirando. Un resultado deseado es lo que ellos llaman un "avance". "La gente real está tratando de evitar la publicidad", señaló Kalehoff en el entorno de distracción.
Esto es importante porque las personas "deslizarán, saltarán o desplazarán" los anuncios para llegar al contenido. Deslizarán TikTok, se desplazarán por Facebook o Instagram, o saltarán a YouTube, observó Kalehoff. ¿Resonó el anuncio?
Luego está el tipo de visualización, como Netflix o Hulu, donde la participación del consumidor es pasiva. Aquí, Realeyes busca una "respuesta enfocada". ¿El espectador está prestando atención al anuncio? ¿Qué está viendo segundo a segundo? ¿Eso da una impresión positiva o negativa?
Luego están las compras en línea, por ejemplo en Amazon: aquí, la validación de datos visuales se somete a un seguimiento de cuatro preguntas, que se prueba para el conocimiento de la marca, el recuerdo del anuncio, la confianza en la marca y la simpatía de un anuncio.
La simplicidad del enfoque de Realeyes es que el escaneo de expresiones faciales funciona en cualquier lugar, con cualquier cosa". Con dos tercios del gasto en medios digitales destinados a tres o cuatro plataformas principales, "solo tiene que ir a algunos lugares para llamar la atención para atraer, ”, dijo Kalehoff.
Margen de mejora
La base de Realeyes es la base de datos de entrenamiento que informa a la IA sobre el significado de una expresión facial. Portar la aplicación a la computadora de mano significa reconocer las sonrisas y los ceño fruncidos, y luego usar esa información para corregir una mala impresión o mejorar una buena.
Sin embargo, Realeyes es consciente de que hay margen de mejora. Tuvo que trabajar para adaptar su aplicación de reconocimiento facial para que funcionara en condiciones de poca luz sin dejar de ser precisa, señaló Kalehoff. La IA también recibió capacitación adicional para reconocer diferentes tonos de piel y nuevamente brinda lecturas precisas.
También hay algunas ventajas: Realeyes puede detectar si la misma cara aparece más de una vez. Esto puede ser un problema con las encuestas pagas en las que un encuestado puede querer tomarse más de una vez para ganar un poco de dinero extra, señaló Kalehoff.
En términos de aplicación práctica, Realeyes trabajó con Mars Inc. en un proyecto para aumentar las ventas a través de métricas de mayor atención. La experiencia resultó en un aumento del 18 % en las ventas en 19 mercados, optimizando la inversión publicitaria en alrededor de $30 millones, dijo Kalehoff. Incluso un aumento del 5 % en la “atención creativa” puede resultar en un aumento del 40 % en el conocimiento de la marca.
¡Consigue Aprendermarketing! Entregado diariamente a su bandeja de entrada de forma gratuita.
Las opiniones expresadas en este artículo son las del autor invitado y no necesariamente las de Aprendermarketing.
Deja una respuesta