Uno de los mayores retos que tienen las redes sociales se concentra en las noticias falsas y en los mensajes de odio. Los anunciantes no quieren que su publicidad en Facebook o Twitter luzca al lado de elementos que no vayan con los valores que la marca representa.

Las plataformas tratan a toda velocidad de brindar la mayor certeza de que el contenido en el que inviertan será bien utilizado y redituable, pero en ese camino porque sus algoritmos alejen los discursos de odio y la información errónea y peligrosa, también aminora el impacto de algunas campañas publicitarias.

La contingencia representa una oportunidad macro de crecimiento para el entretenimiento digital, la cifras de las plataformas se han disparado a niveles insospechados, pero también es un momento donde la falsa información sobre salud fluye, además de los mensajes que intentan influenciar a los votantes en medio de las elecciones en esa nación.

El algoritmo de Facebook tiene claro que debe dar prioridad a las publicaciones de la pareja, familia, amigos, amigos de amigos y hasta el final de las marcas o medios, pero también que debe detectar palabras consideradas ofensivas y utilizarlas como muestras para crear su propio modelo de clasificación.

Algo muy similar ocurre en Twitter, donde el algoritmo muestra información con cuentas con las que más se interactúan y con los temas más mencionados, las tendencias o los que van camino a serlo. A la par, sus sistema ha demostrado tener la capacidad de detectar mensajes misóginos con un 75 por ciento de precisión.

Imagen: Bigstock

Entrando de lleno en las palabras prohibidas, de acuerdo con información del medio The Next Web, primero extrajeron un millón de tweets y refinaron las publicaciones hasta hallar tres palabras clave considerado como lenguaje misógino: puta, mujerzuela y violación.

Tres cuartas partes de los consumidores confiesan que aplazarían deliberadamente la compra de productos o la contratación de servicios de marcas cuya publicidad estuviera emplazada (intencionalmente o no) cerca de contenidos inapropiados.

En pro de que esto no ocurra, en Twitter utilizan un algoritmo de aprendizaje que ajusta su conocimiento de la terminología al mismo tiempo que evoluciona el lenguaje, a la par que su sistema de Inteligencia Artificial construye un vocabulario, y los investigadores se encargan de monitorear el contexto y la intención del lenguaje, lo cual ayudó al algoritmo a diferenciar entre abuso, sarcasmo y “uso amigable de terminología agresiva”. 

Twitter no permite compartir enlaces que redirigen a malware, estafas de phishing, sitios web que venden “comprar, vender o facilitar transacciones en bienes o servicios ilegales”, “medios u otro contenido creado por organizaciones terroristas o violentas grupos extremistas” y más.

Para ser razonables, muy pocas campañas se arriesgan a utilizar esas palabras o contenido porque los profesionales del marketing conocen sus repercusiones, pero no son las únicas vetadas, algunas se usan cotidianamente y probablemente deberían evitarse para tener mayor alcance.

La interacción cambia en Twitter y Facebook

En medio de la contingencia, usar: COVID-19, pandemia y Coronavirus, son motivo suficiente para frenar una acción clara de interacción con los saurios digitales. Las plataformas detienen al usuario para preguntarle si confía en el sitio web que le ofrece un contenido relacionado con esos temas de salud. Esto es clave.

Aunado a este tema, las próximas votaciones en la potencia mundial que lidera el presidente Donald Trump, han cambiado la forma en que se interactúa en las redes sociales no solo en Estados Unidos, sino en el mundo. Utilizar discursos de odio hacia su persona o hacia el candidato Joe Biden, frenan cualquier mensaje, pero en ocasiones basta con usar las palabras en un contexto que no tiene el objetivo de agredir, para ser anulado.

En la red social de los 280 caracteres, usar muerte, Trump, contagio, en una misma publicación, detienen las interacciones sobre todo después de que el Primer Mandatario confirmara que había contraído el virus. En Facebook, ocurrió lo mismo, aunque millones no tenían la intención de agredir y no fueron eliminadas, mientras se revisa el contenido, la exposición baja.

Al demostrar que las redes sociales pueden ser determinantes para las votaciones, antes de retweetear alguna publicación, Twitter recomienda ir al sitio a revisar el contenido y requiere un mensaje particular sobre el tema, lo que antes no ocurriría.

Mientras los anunciantes, deben evitar meter en sus contenidos dichas palabras, en el afán de frenar contenido inadecuado, las plataformas tienen el enorme reto de distinguir adecuadamente los mensajes mal intencionados de los cotidianos. Sin embargo, las denuncias por vetos a contenidos probados como bien intencionado no cesan, así que falta mucho por hacer.

Es tal el impacto de estos casos que hubo un boicot en donde cientos de empresas decidieron frenar cuando menos de manera temporal sus inversiones en Facebook, Twitter y YouTube hasta que tuvieran garantías.

La respuesta de YouTube, por ejemplo, fue eliminar durante tres meses cerca de 11.4 millones de videos, 1 millón 155 mil 51 videos manualmente a partir del etiquetado no automatizado. Entre abril y junio de 2020 se eliminaron 552 mil 062 usando esta metodología. El 33 .5 por ciento de los contenidos eliminados se relacionaron con temas de protección a menores de edad, mientras que el 28.3 por ciento de los mismos estaban relacionados con spam, publicidad engañosa e información falsa.

Pero algunas denuncias señalaron que su contenido no debió ser erradicado. Es un dilema grave que aún requiere atención tanto de las plataformas como de los anunciantes.

Te recomendamos:

Ver publicación original www.merca20.com

Te puede interesar: