Cómo el sesgo en la IA puede corromper los datos de marketing y qué puede hacer al respecto
Los algoritmos están en el corazón del marketing y martech. Se utilizan para el análisis de datos, la recopilación de datos, la segmentación de audiencia y mucho más. Porque son el corazón de la inteligencia artificial basada en ellos. Los especialistas en marketing confían en los sistemas de inteligencia artificial para proporcionar datos neutrales y confiables. De lo contrario, sus esfuerzos de marketing pueden estar mal dirigidos.
Nos gusta pensar en los algoritmos como conjuntos de reglas sin prejuicios ni intenciones. En sí mismos son exactamente eso, no tienen opinión. Pero estas reglas se basan en las suposiciones y los valores de su creador. El otro camino de la IA, y quizás más importante, es a través de los datos en los que se entrena.
Excavar más hondo: Bard y ChatGPT finalmente mejorarán la experiencia de búsqueda
Por ejemplo, los sistemas de reconocimiento facial se entrenan en series de imágenes de personas en su mayoría de piel clara y, por lo tanto, se entrenan notoriamente malo para reconocer a las personas de piel oscura.En un caso, había 28 miembros del Congreso, desproporcionadamente negros no coincide Los intentos fallidos de corregir esto han llevado a algunas empresas, sobre todo Microsoft, a dejar de vender estos sistemas a las fuerzas del orden.
ChatGPT, Bard de Google y otros chatbots impulsados por IA son modelos de lenguaje autorregresivos que utilizan el aprendizaje profundo para producir textoEste aprendizaje se basa en un vasto conjunto de datos que puede incluir todo lo que se ha publicado en Internet durante un período de tiempo determinado: un conjunto de datos plagado de errores, desinformación y, por supuesto, sesgo.
Tan bueno como los datos que obtiene
"Si le das acceso a Internet, está intrínsecamente sesgado”, dice Paul Roetzer, fundador y director ejecutivo de The Marketing AI Institute. "Es solo un espejo de la humanidad en muchos sentidos".
Los constructores de estos sistemas son conscientes de ello.
"En [ChatGPT creator] Divulgaciones y descargos de responsabilidad de OpenAI Dicen que el sentimiento negativo está más asociado con los nombres de mujeres afroamericanas que con cualquier otro nombre", dice Christopher Penn, cofundador y científico de datos principal de TrustInsights.ai. "Entonces, si tiene algún tipo de estado de ánimo de caja negra totalmente automatizado modelando y estás juzgando que los nombres de pila de People, si Letitia saca una nota más baja que Laura, tienes un problema, estás reforzando ese prejuicio.
Los documentos de mejores prácticas de OpenAI también lo dicen"Desde la alucinación de información inexacta hasta el gasto ofensivo, el sesgo y más, sin modificaciones significativas, los modelos de lenguaje pueden no ser apropiados para todos los casos de uso".
¿Qué debe hacer un mercadólogo?
La mitigación del sesgo es fundamental para los especialistas en marketing que desean trabajar con los mejores datos posibles. Eliminarlos será para siempre un objetivo en movimiento, un objetivo a perseguir pero no necesariamente a alcanzar.
"Los especialistas en marketing y las empresas de tecnología de mercado deberían pensar: '¿Cómo aplicamos esto a los datos de capacitación entrantes para que el modelo tenga menos sesgo inicialmente que debemos mitigar más adelante?'", dice Christopher Penn. Si no tiras la basura, no tienes que filtrar la basura".
Hay herramientas que pueden ayudarte con esto, aquí están las cinco más populares:
- Y si by Google es una herramienta de código abierto que ayuda a detectar la presencia de sesgo en un modelo mediante la manipulación de puntos de datos, la creación de gráficos y la especificación de criterios para probar si los cambios afectan el resultado final.
- Equidad de IA 360 de IBM es un conjunto de herramientas de código abierto para detectar y eliminar sesgos en los modelos de aprendizaje automático.
- justo aprender Desarrollado por Microsoft para ayudar a navegar por las compensaciones entre la equidad y el rendimiento del modelo.
- Explicaciones independientes del modelo interpretables localmente (LIME), desarrollado por el investigador Marco Tulio Ribeiro, permite a los usuarios manipular diferentes componentes de un modelo para comprender mejor y revelar la fuente de las distorsiones, si las hay.
- FairML de Julius Adebayo del MIT es una caja de herramientas integral para probar modelos predictivos mediante la cuantificación de la importancia relativa de las entradas del modelo.
"Son buenos cuando sabes lo que estás buscando”, dice Penn. "No son tan buenos cuando no estás seguro de lo que hay en la caja".
Evaluar la entrada es la parte fácil
Por ejemplo, con AI Fairness 360, dice, puede darle un conjunto de decisiones de crédito y una lista de clases protegidas: edad, género, raza, etc. Luego puede detectar cualquier sesgo en los datos de entrenamiento o en el modelo y activar una alarma si el modelo comienza a desviarse en una dirección sesgada.
"Es mucho más difícil de generar, especialmente si se trata de copias o imágenes", dice Penn. "Las herramientas que existen actualmente son principalmente para datos rectangulares tabulares con resultados claros que intentan desactivar".
Los sistemas que generan contenido, como ChatGPT y Bard, son increíblemente intensivos desde el punto de vista computacional. Agregar protecciones adicionales contra el sesgo tendrá un impacto significativo en su rendimiento. Esto se suma a la ya difícil tarea de crearlos, así que no espere una solución en el corto plazo.
no puedo permitirme esperar
Debido al riesgo de la marca, los especialistas en marketing no pueden darse el lujo de sentarse y esperar a que los modelos se arreglen solos. Las contramedidas que deben tomar para el contenido generado por IA se preguntan constantemente qué podría salir mal. Las mejores personas para preguntar esto provienen de los esfuerzos de diversidad, equidad e inclusión.
“Las organizaciones hablan mucho de las iniciativas de DEI”, dice Penn, “pero aquí es donde DEI realmente puede brillar. [Have the] El equipo de diversidad... examina los resultados de los modelos y dice: "Eso no está bien o está bien".
La forma en que las empresas definan y mitiguen el sesgo en todos estos sistemas será una pista importante para su cultura.
"Cada organización tiene que desarrollar sus propios principios de cómo desarrollan y usan esta tecnología", dice Paul Roetzer, "y no sé cómo resolverlo más que en el nivel subjetivo: eso es lo que consideramos que es el sesgo, y utilizaremos herramientas que lo hagan posible, o no”.
¡Consigue Aprendermarketing! Entregado diariamente a su bandeja de entrada de forma gratuita.
Deja una respuesta