Tecnología
Inteligencia artificial pondrá en jaque a los que usan redes sociales para insultar a futbolistas y celebridades
La Fifa ya ha identificado a 300 individuos responsables de ciberacoso durante el Mundial.
Un estudio independiente que empleó inteligencia artificial para rastrear casos de ciberacoso a los jugadores que disputaron la Copa Mundial de fútbol en 2022 logró identificar a más de 300 individuos cuya información fue remitida a las autoridades, informó el domingo la Fifa.
El estudio analizó más de 20 millones de publicaciones y comentarios en Facebook, Instagram, TikTok, Twitter y YouTube durante el Mundial, logrando confirmar “el carácter ofensivo, discriminatorio o amenazante de 19.636 publicaciones y comentarios”, dijo la Fifa en un informe que detalló las medidas que tomó para proteger a los futbolistas y árbitros durante el torneo en Catar.
La mayor cantidad de mensajes de odio se registró en el partido de cuartos de final entre Inglaterra y Francia, según el proyecto que fue concebido conjuntamente por la Fifa y el sindicato internacional de futbolistas (FIFPRO).
El proyecto empleó inteligencia artificial, con dos capas adicionales de análisis humano, para detectar comentarios de odio.
Tendencias
“Los mensajes de violencia y amenazas alcanzaron ribetes más extremos a medida que transcurrió el torneo, agudizándose las referencias a las familias de los jugadores, y más amenazas al volver a un país en particular, ya sea el país que representaron o donde juegan”, consignó el informe.
El 38 % de los mensajes identificados como de odio procedió de cuentas de Europa y el 36 % de Sudamérica. Más de 13.000 de los mensajes fueron reportados a Twitter.
“Las cifras y hallazgos en este informe no sorprenden a nadie, pero no dejan de enormemente preocupantes”, dijo David Aganzo, el presidente de la FIFPRO.
Las selecciones y los jugadores recibieron un software de moderación que permitió interceptar 286.000 mensajes abusivos antes de ser leídos por el destinatario o los seguidores.
Se indicó que los datos de más 300 personas responsables de las publicaciones y comentarios ofensivos, discriminatorios o amenazantes durante el campeonato “serán remitidos a las correspondientes federaciones miembro y autoridades judiciales para garantizar que se tomen medidas concretas contra ellas”, según la Fifa.
“La discriminación es un acto delictivo. Con la ayuda de esta herramienta, identificamos a los autores y los denunciamos ante las autoridades para que sean castigados por sus actos”, dijo Gianni Infantino, el presidente de la Fifa, en un comunicado.
“También esperamos que las plataformas de redes sociales acepten sus responsabilidades y nos apoyen en la lucha contra todas las formas de discriminación”, agregó.
La Fifa y FIFPRO expandirán el sistema de detección de mensajes ofensivos durante la Copa Mundial femenina que arrancará el próximo mes en Australia y Nueva Zelanda.
Meta dice tener una inteligencia artificial que podría ser un riesgo para la humanidad si es revelada
Recientemente, se ha conocido uno de los planes secretos de Meta —compañía de Mark Zuckerberg—que podría cambiar para siempre la concepción que se tiene sobre las herramientas de inteligencia artificial generativa con servicios de voz.
Según Business Insider, en una de sus publicaciones, se trata de Voicebox, una aplicación diseñada para hablar hasta en seis idiomas diferentes. La revelación se hizo en el blog corporativo de Meta.
Según la propia compañía, no se atreven a ponerla a disposición del público porque consideran que puede tener riesgos potenciales de caer en manos equivocadas.
“Hay muchos casos de uso emocionantes para los modelos generativos que hablan, pero precisamente por el potencial de usos malintencionados no vamos a lanzar Voicemodel: ni el modelo ni el código (...). Creemos que es importante ser transparentes con la comunidad de la IA y compartir nuestras investigaciones para avanzar en su estado del arte, pero también es importante mantener el equilibrio justo entre esa apertura y la responsabilidad”, indicó la empresa en su comunicado interno.
Según se conoció, las personas ciegas que utilicen esta herramienta podrían leer mensajes gracias a diferentes asistentes que se podrían configurar con las voces de amigos; además, esta permitiría escuchar la propia voz, pero en otros idiomas.
Aunque es un proyecto privado de Meta, se sabe que hay algunos desarrolladores que han podido acceder a él para poder, bajo la supervisión de la compañía, saber hasta donde pueden llegar quienes manipulen el código de su producto.
Con información de AP