Riesgos legales y prácticas éticas en el uso de inteligencia artificial en iGaming

Caro Vallejo
Escrito por Caro Vallejo

En entrevista exclusiva con SiGMA News, Beniamino Santoro, experto en protección de datos y profesor adjunto de derecho de privacidad en la Escuela de Negocios de Ascencia, comparte su visión sobre la evolución de la inteligencia artificial en el juego en línea. Santoro destaca los desafíos de equilibrar seguridad y privacidad en sistemas de inteligencia artificial, especialmente en identificación y detección de fraude. También enfatiza la importancia del cumplimiento normativo, consideraciones éticas y transparencia en la toma de decisiones. Ofrece estrategias prácticas para que los operadores garanticen un uso ético y cumplimiento normativo en este sector en constante evolución.

Evolución de la regulación de inteligencia artificial y protección de datos

Beniamino Santoro destaca que los marcos regulatorios para la inteligencia artificial y la protección de datos han evolucionado hacia una normativa basada en riesgos. Elsentó las bases de la transparencia y la rendición de cuentas, pero el rápido crecimiento de la inteligencia artificial introdujo desafíos como el sesgo algorítmico y riesgos para la privacidad. Esto llevó a la creación del que exige un cumplimiento estricto para aplicaciones de alto riesgo en sectores como la salud y las finanzas, con sanciones de hasta 35 millones de euros.

A nivel global, los enfoques regulatorios varían: la UE utiliza un modelo basado en riesgos, EE. UU. se centra en los derechos del consumidor, y China aplica una estricta localización de datos. Esto complica el cumplimiento para las multinacionales. La normativa impulsada por la ética se ha vuelto clave, con estándares como la “privacidad desde el diseño” y tecnologías como el aprendizaje federado.

Detección de fraude impulsado por Inteligencia Artificial en iGaming: estrategias para el cumplimiento de la normativa

SiGMA News: La detección de fraude en los pagos es crucial para la industria del iGaming. ¿Cómo pueden los operadores equilibrar la seguridad de las transacciones impulsada por la inteligencia artificial sin violar las restricciones del GDPR con la toma de decisiones automatizada?

Beniamino Santoro: Esto debe ser abordado de manera cuidadosa, especialmente a la luz de las restricciones del. Los operadores pueden lograr este equilibrio mediante las siguientes estrategias:

  1. Evitar decisiones únicamente automatizadas: El GDPR prohíbe las decisiones basadas únicamente en el procesamiento automatizado que produzcan efectos legales significativos. La supervisión humana es crucial; los analistas deben revisar las transacciones señaladas antes de que se tomen las decisiones finales.
  2. Justificar el procesamiento automatizado: Los operadores deben documentar y justificar su dependencia de la inteligencia artificial bajo estos criterios.
  3. Implementar inteligencia artificial entendible: La transparencia es vital para el cumplimiento del GDPR. Los sistemas de inteligencia artificial deben proporcionar resultados entendibles, ofreciendo explicaciones claras de las decisiones garantizando la equidad y la transparencia.
  4. Habilitar los derechos del usuario: Los operadores deben defender los derechos del usuario bajo el GDPR, incluyendo el acceso a la intervención humana, la capacidad de cuestionar las decisiones de la inteligencia artificial y la transparencia sobre las prácticas de procesamiento de datos.
  5. Minimizar el uso de datos: Los principios de minimización de datos requieren que los operadores recolecten únicamente datos esenciales para la detección de fraude. Técnicas como la pseudonimización y el cifrado pueden mejorar aún más la seguridad de los datos.
  6. Autenticación basada en riesgos: La inteligencia artificial puede asignar puntajes de riesgo a las transacciones sin tomar decisiones finales. Los casos de alto riesgo pueden activar pasos adicionales de verificación, asegurando la participación humana mientras que se refuerza la seguridad.
  7. Auditorías regulares: Las auditorías frecuentes son necesarias para garantizar que los sistemas de inteligencia artificial sean imparciales y efectivos en la detección de fraude. Al adoptar estas medidas, los operadores del iGaming pueden aprovechar la inteligencia artificial de manera responsable mientras protegen la privacidad del usuario y adhiriéndose al marco regulatorio del GDPR.

Consideraciones éticas y legales en la detección de adicción al juego basada en Inteligencia Artificial

SiGMA News: La inteligencia artificial también se ha utilizado para detectar patrones de juego problemático. ¿Hay algún riesgo legal al utilizar la inteligencia artificial para este propósito?

BN: Utilizar la inteligencia artificial para detectar comportamientos de juego problemáticos ofrece beneficios como la intervención temprana, pero introduce riesgos legales relacionados con la privacidad de los datos, el cumplimiento normativo, la ética y la responsabilidad.

  1. Privacidad de los datos y consentimiento: Los sistemas de inteligencia artificial procesan grandes cantidades de datos personales, requiriendo bases legales para el procesamiento bajo regulaciones como el GDPR de la UE. Obtener un consentimiento válido de individuos con adicciones al juego es desafiante, ya que su autonomía puede estar comprometida, lo que podría invalidar el consentimiento. El mal uso de datos sensibles, como la información biométrica, puede resultar en responsabilidades legales significativas si no se maneja adecuadamente.
  2. Cumplimiento normativo: Los sistemas de inteligencia artificial para la detección de adicción al juego deben cumplir con regulaciones como la Acta de Inteligencia Artificial de la UE, que puede clasificar aplicaciones específicas como “de alto riesgo” y exigir una supervisión estricta. Los operadores también deben adherirse a las leyes de juego específicas de cada jurisdicción ay que su incumplimiento puede llevar a sanciones o pérdida de licencias.
  3. Transparencia y rendición de cuentas: La naturaleza “caja negra” de la inteligencia artificial hace compleja la explicación de los procesos de toma de decisiones, planteando preocupaciones de rendición de cuentas en caso de que ocurran daños debido a decisiones tomadas por la inteligencia artificial (por ejemplo, suspensión de cuentas). Los reguladores exigen cada vez más documentación clara para garantizar la equidad y prevenir prácticas discriminatorias.
  4. Preocupaciones éticas: La inteligencia artificial puede ser utilizada para ciertas prácticas como dirigirse a jugadores vulnerables con marketing o incentivos que exacerben la adicción, creando dilemas éticos para los operadores que equilibran beneficios con las obligaciones de juego responsable.
  5. Riesgos de responsabilidad: Los operadores enfrentan posibles demandas si los sistemas de inteligencia artificial fallan al detectar la adicción o si las intervenciones impulsadas por la inteligencia artificial causan daños, como restricciones incorrectas de cuentas o discriminación. Para mitigar estos riesgos, los operadores deben implementar medidas sólidas de protección de datos, garantizar la transparencia en los procesos de inteligencia artificial y cumplir con las regulaciones relevantes mientras priorizan los estándares éticos.

Desafíos de privacidad con el reconocimiento facial en iGaming

Santoro considera que la integración de tecnología de reconocimiento facial en el juego en línea para la verificación de edad y la creación de avatares plantea ” desafíos significativos de privacidad”. Esta tecnología depende de datos biométricos sensibles, que, si se violan, podrían llevar al robo de identidad, ya que los datos faciales no pueden alterarse como las contraseñas. La falta de transparencia en el manejo de los datos socava la confianza del usuario y puede violar regulaciones como el GDPR.

Según el experto legal, las bases de datos centralizadas de datos faciales son vulnerables a ataques cibernéticos y presentan sesgos demográficos, lo que puede llevar a mal identificaciones o exclusiones. La recopilación de datos faciales sin consentimiento explícito viola los principios de privacidad, lo que requiere el cumplimiento de complejas regulaciones biométricas. Para mitigar estos riesgos, Santoro destaca la necesidad de “cifrado robusto, almacenamiento seguro de datos, transparencia en el uso de datos, técnicas para mitigar sesgos, consentimiento explícito con opciones de rechazo y auditorías regulares de privacidad”.

La integración de la inteligencia artificial en el iGaming plantea desafíos para equilibrar la seguridad y la privacidad. Los marcos regulatorios como el GDPR y la Acta de Inteligencia Artificial de la UE enfatizan la transparencia y la rendición de cuentas. Los operadores deben centrarse en la alfabetización en inteligencia artificial, una normativa sólida y un diseño centrado en el usuario para gestionar estas dificultades de manera efectiva, especialmente cuando se utiliza la inteligencia artificial para detectar el juego problemático o el reconocimiento facial.

No te pierdas lo último y únete a la comunidad de iGaming más grande del mundo con el top 10 de noticias de SiGMA. Suscríbete  para recibir actualizaciones semanales de la autoridad mundial del iGaming y ofertas exclusivas para suscriptores.