Stats Perform & Signify: Abordar el abuso online es cuidar a todas las partes interesadas en el deporte

Como parte de un proyecto principal anunciado este verano europeo, Stats Perform y su socio de integridad de inteligencia artificial (IA) Signify se comprometieron a mejorar Threat Matrix, una herramienta de monitoreo sofisticada para ayudar a abordar el abuso en las redes sociales en todos los mercados deportivos.

Los líderes del proyecto Jake Marsh, gerente global de Integridad en Stats Perform, y Jonathan Hirshler, CEO de Signify, describieron en exclusiva para SBC News los desafíos de abordar el abuso online y el alcance de la integridad deportiva para monitorear los compromisos en las plataformas digitales, un enigma que enfrentan todas las empresas para salvaguardar sus entornos digitales.

SBC: Hola Jake y Jonathan, gracias por esta entrevista. Stats Perform ha anunciado una asociación con la empresa de datos éticos Signify y su servicio Threat Matrix, que aborda el abuso online. ¿Por qué Stats Perform ha optado por abordar el tema?

Jake Marsh, Stats Perform: El abuso en las redes sociales se reconoce como uno de los problemas más serios que enfrenta el deporte, con llamadas de fanáticos, jugadores, equipos, ligas e incluso gobiernos para tomar medidas. En Stats Perform, reconocemos que el campo de la integridad deportiva debe expandirse para incluir un mayor enfoque en este tema, especialmente dado su impacto en el deporte y el bienestar de sus participantes.

Como parte de nuestro enfoque de ser un actor deportivo responsable, ofrecemos un servicio que ayuda a las federaciones, a los titulares de derechos y a los equipos a identificar la naturaleza del problema que enfrentan y los empodera para tomar medidas contra los abusadores online. Habíamos estado hablando con Signify desde principios de 2021 y quedó claro que compartíamos una filosofía común al adoptar un enfoque proactivo para abordar los problemas de integridad deportiva y el abuso online en particular.

SBC: ¿Las complejidades de identificar el abuso (odio) online se pueden resolver simplemente con una solución algorítmica? ¿Cómo se han acercado Stats Perform y Signify a los límites técnicos de la identificación de amenazas reales?

Jonathan Hirshler, Signify: Esta fue casi la pregunta exacta que nos hicimos al desarrollar Threat Matrix en primera instancia. ¿Podemos usar una combinación de inteligencia artificial, aprendizaje automático e inteligencia humana (lo llamamos inteligencia aumentada) para identificar el abuso online dirigido, con todos los términos contextuales y matizados utilizados en diferentes deportes e industrias?

Hemos estado trabajando en el entrenamiento, el refinamiento y el desarrollo de nuestra solución durante más de dos años y ahora podemos obtener resultados mucho más completos en una gama más amplia de problemas para los que los atletas han estado pidiendo ayuda. Tenemos un enfoque específico en resaltar los problemas reales e identificar a los propietarios de cuentas abusivos; nos impulsa llegar a la fuente del problema y ofrecer una disuasión real.

Nuestra arma secreta en este esfuerzo es un Protocolo Académico de Evaluación de Amenazas en las Comunicaciones, llamado CTAP-25. Desarrollado por los expertos en seguridad Theseus, CTAP-25 identifica una serie de significantes que ayudan a determinar dónde un mensaje o cuenta podría convertirse en un peligro claro y presente para un atleta. Nuestra metodología se basa en pensar así. Nos ha permitido desarrollar un enfoque súper inteligente y de aprendizaje constante para identificar amenazas online específicas.

SBC: ¿En qué se diferencia el seguimiento de abusos de otros proyectos de tecnología deportiva más amplios de Stats Perform en términos de alcance, tamaño y competencia técnica?

J.M.: El monitoreo proactivo de las redes sociales es una tarea enorme para realizar manualmente, por lo que el servicio Threat Matrix de Signify aprovecha la comprensión del lenguaje natural de la IA y el aprendizaje automático para identificar el abuso dirigido a escala. Luego, esto se combina con un análisis de expertos que ofrece una evaluación basada en significados de estos datos, combinando la velocidad y la escala de la IA con los matices de la interpretación humana para producir informes basados ​​en evidencia y recomendaciones procesables.

Sobre esto, existen similitudes con nuestras otras ofertas de integridad de sportstech, como el Monitoreo de los Mercados de Apuestas y nuestro servicio único de Análisis de Integridad del Rendimiento (PIA). PIA incluye análisis de video junto con el uso de modelos y métricas avanzados e impulsados ​​por nuestra base de datos Opta, que combina datos cuantitativos con análisis cualitativos realizados por nuestros expertos internos en integridad de desempeño. Si bien las ofertas pueden ser diferentes, el núcleo fundamental del uso de soluciones tecnológicas y de inteligencia artificial alineadas con el análisis humano es clave para estos servicios.

SBC: Después de los eventos de alto perfil de este verano, ¿debería incluirse el abuso online contra atletas en el proyecto de ley de daños propuesto por el gobierno del Reino Unido?

J.H.: El proyecto de ley de seguridad online (daños online) tiene el potencial de ser líder mundial y realmente establecer un nuevo estándar en términos de cómo las empresas de redes sociales deben asumir una mayor responsabilidad en la protección de sus propios usuarios. Si los legisladores hacen esto bien, especificar atletas o cualquier otro tipo de individuo dentro del proyecto de ley no debería importar; debemos asegurarnos de que todos los usuarios de estas plataformas estén protegidos del vil abuso que ha ido en aumento en los últimos años.

La evidencia que desarrollamos para la Asociación de Futbolistas Profesionales fue enviada al Comité que está examinando el proyecto de ley, citado por exjugadores como Rio Ferdinand, que realmente se dieron cuenta de lo que se siente al estar en el extremo receptor de abusos online. Esto se utilizó para respaldar el diálogo de nuestro cliente con las plataformas de redes sociales, lo que llevó a un cambio tangible en la forma en que se abordan los problemas. Si el proyecto de ley tiene éxito, proporcionará a los organismos reguladores como la OFCOM una fuerza real para responsabilizar a quienes no actúen. Esto también podría proporcionar un estímulo útil para que otros países y legisladores tomen medidas similares.

SBC: ¿Qué actor (club, organismo rector, medios de comunicación, locutor) tiene la obligación de supervisar el contenido que incita al odio?

J.M.: Estamos de acuerdo en que este ha sido un desafío continuo cuando se trata del abuso online en el deporte. Tanto en un nivel macro, en términos de qué organizaciones deberían tener primacía en el tema, como en un nivel más micro, en el que hemos visto confusión sobre a qué competencia debería pertenecer dentro de esas organizaciones. Por ejemplo, ¿debería la responsabilidad de esto recaer en un Jefe de Comunicaciones, Bienestar del Jugador o quizás bajo un rol de Diversidad, Igualdad e Inclusión? Muchos organismos deportivos todavía están trabajando en esto.

En última instancia, todas las partes interesadas de la industria del deporte tienen un cierto grado de cuidado en esta área. Mientras que en algunos deportes podemos ver a una federación o un organismo rector tomar la iniciativa, otros pueden tener un enfoque centrado en el club/ equipo que mira el problema más desde la perspectiva del deber de cuidado de un empleador. Claramente, las propias plataformas de redes sociales también tienen la responsabilidad de tratar de contrarrestar este abuso. De cualquier manera, es vital que todos los organismos trabajen juntos en colaboración, compartiendo información, recursos y mejores prácticas para garantizar que los jugadores y los funcionarios estén protegidos contra amenazas online específicas y abusos discriminatorios.

SBC: Al evaluar los ejemplos e interacciones de la vida real, ¿se pueden considerar las plataformas de contenido abierto/ basadas en opiniones como “entornos seguros” para todas las audiencias?

J.H.: ¿Llegaremos alguna vez a una posición en la que no haya abuso y las plataformas sociales sean 100 por ciento seguras? Probablemente no, pero si podemos ayudar a los clientes a responsabilizar realmente a algunos de estos malos actores tomando medidas tangibles, podríamos ver un cambio radical en el deporte y en las redes sociales.

Además, vale la pena señalar que, si bien nuestro enfoque inicial ha estado en las redes sociales públicas, también estamos viendo problemas en los canales sociales privados. Para evitar una situación en la que los propietarios de cuentas abusivos simplemente cambien de mensajes públicos a mensajes directos, hemos desarrollado técnicas innovadoras que identifican los mensajes amenazantes/ abusivos enviados a través de DM. Lo hemos hecho con sensibilidad, desarrollando un proceso inteligente que protege la privacidad de la víctima.

SBC: Finalmente, ¿cómo medirán Stats Perform y Signify el progreso real en la minimización del abuso online, un problema que continúa desafiando a las empresas de tecnología más grandes (Facebook, Twitter, etc.)?

J.H.: Con un servicio basado en inteligencia artificial como Threat Matrix, es posible monitorear el desempeño de las plataformas de redes sociales para lidiar con este problema. Nuestro trabajo reciente con la Asociación de Futbolistas Profesionales es un gran ejemplo de esto. Analizamos más de seis millones de tweets dirigidos a futbolistas profesionales en todo el Reino Unido durante la temporada 2020-21, identificando un aumento en el abuso racista y discriminatorio dirigido, con menos mensajes discriminatorios moderados en la segunda mitad de la temporada en comparación con la primera mitad.

Hemos demostrado cómo es posible crear un punto de referencia real, mostrando el tamaño y la escala del problema en cualquier deporte. Una vez que tengamos esto, es completamente posible monitorear los aumentos/ disminuciones en los mensajes abusivos dirigidos registrados, junto con las tácticas que deben contrarrestarse.

J.M./ J.H.: El enfoque de asociación que Stats Perform y Signify han desarrollado se basa en trabajar con las partes interesadas en todo el mundo deportivo para ayudar a comprender la naturaleza del problema (¿qué tan malo es para su deporte, en realidad?) Y luego proporcionar las herramientas hacer algo al respecto.