?La IA puede detectar se?ales de advertencia en el juego?

Neha Soni
Escrito por Neha Soni
Traducido por Milagros Codo

A medida que los chatbots con tecnolog¨ªa GPT se convierten en la herramienta predilecta para obtener respuestas r¨¢pidas y apoyo emocional, se registra una cantidad cada vez m¨¢s grande de jugadores con problemas de juego que recurre a la inteligencia artificial (IA) en lugar de acudir a terapeutas o llamar a l¨ªneas de ayuda. Sin embargo, un nuevo estudio de AiR Hub advierte que estos modelos de lenguaje extenso (LLM) podr¨ªan ofrecer consejos enga?osos y que podr¨ªan perjudicar la adicci¨®n al juego.

Chatbots y juegos de azar, ?por qu¨¦?

La investigaci¨®n, dirigida por el Dr. Kasra Ghaharian, director de investigaci¨®n del Instituto Internacional de Juegos de la UNLV y cofundadora de AiR Hub, evalu¨® c¨®mo dos de los LLM m¨¢s destacados, GPT-4o (ChatGPT) y Llama de Meta, responden a preguntas basadas en el ?ndice de Gravedad del Juego Problem¨¢tico (PGSI). El era evaluar si estos modelos ofrecen consejos que apoyan el juego responsable o fomentan inadvertidamente un comportamiento riesgoso. ¡°Las personas est¨¢n usando chatbots basados ??en LLM para hacer preguntas sobre el juego, pensamos que ser¨ªa interesante investigar emp¨ªricamente c¨®mo responden, espec¨ªficamente a preguntas relacionadas con el juego problem¨¢tico¡±,?Ghaharian le dijo a SiGMA News.

Las respuestas generadas por IA fueron revisadas por 23 profesionales con amplia experiencia en el tratamiento del juego, con m¨¢s de 17.000 horas de experiencia combinada. Los comentarios destacaron la incapacidad de ambos modelos para ofrecer una orientaci¨®n clara y responsable de forma consistente, especialmente cuando las consultas apuntaban a un comportamiento problem¨¢tico con el juego. En el estudio llegaron a la siguiente conclusi¨®n: ¡°Algunas respuestas alentaban sutilmente a seguir jugando, ocultaban consejos pr¨¢cticos tras explicaciones demasiado largas o utilizaban una jerga que, seg¨²n los expertos, pod¨ªa malinterpretarse f¨¢cilmente¡±.

El problema de la alineaci¨®n de la IA

La alineaci¨®n de la IA (el proceso de garantizar que los sistemas se comporten de acuerdo con los valores humanos y los est¨¢ndares de seguridad) es crucial en ¨¢mbitos sensibles. Sin embargo, el juego presenta un desaf¨ªo ¨²nico. Los chatbots no solo deben proporcionar respuestas fiables a las consultas sobre apuestas casuales, sino tambi¨¦n detectar cu¨¢ndo un usuario puede estar en riesgo. Ghaharian dijo que el asistente puede responder preguntas casuales de manera?efectiva. Brian Pempus, fundador de GamblingHarm.org, coincide con esta reflexi¨®n. Cree que los chatbots de IA dise?ado para prop¨®sitos generales, como ChatGPT, t¨¦cnicamente pueden reconocer se?ales de ludopat¨ªas, pero solo hasta cierto punto.

¡°ChatGPT parece estar capacitado para reconocer los signos definitorios del juego problem¨¢tico establecidos por el DSM-5¡±, explica. ¡°Sin embargo, que pueda reconocer se?ales exclusivas de cada individuo depende de cu¨¢n profunda y detalladamente describa lo que est¨¢ sucediendo en relaci¨®n con el juegoé¢.

Complejidades: ?La enemiga de la IA?

Sin embargo, el chatbot tiene dificultades cuando aumenta la complejidad. Ghaharian afirm¨®: ¡°Si las preguntas se volvieran m¨¢s complejas o mostraran indicios de un posible da?o, es posible que no existan datos fuente fiables ni barreras de seguridad para que el asistente pueda elaborar una respuesta adecuada o incluso comprender si deber¨ªa o no responderla en primer lugaré¢.

Keith Scott Whyte, fundador y presidente de Safer Gambling Strategies LLC, comparte esta idea y cree que la ludopat¨ªa es incre¨ªblemente compleja. En declaraciones a SiGMA News, afirm¨®: ¡°La ludopat¨ªa sigue estando muy estigmatizada y, en cierto modo, a¨²n se comprende poco. Por lo tanto, no es de extra?ar que a los chatbots les cueste comprender algunos de estos matices y lenguajeé¢. Recomienda lo siguiente:

Desde la perspectiva de la seguridad del jugador, los chatbots deber¨ªan asumir que un usuario tiene un problema hasta que se demuestre lo contrario. El concepto de ‘primero no hacer da?o’ se aplica aqu¨ª m¨¢s que nuncaé¢.

Esto se vuelve especialmente apremiante, ya que no distinguir adecuadamente entre alguien con ludopat¨ªa y alguien que no la tiene ¡°puede ser mortal¡±, advirti¨® Whyte. ¡°Esto no es como equivocarse al pedir comida a domicilio. Las consecuencias de un error en este caso son catastr¨®ficasé¢. En una conversaci¨®n sincera con SiGMA, Pempus destac¨® que una de las mayores preocupaciones es c¨®mo los chatbots eval¨²an el riesgo de suicidio, especialmente en el contexto de la ludopat¨ªa. ¡°Las ludopat¨ªas conllevan un mayor riesgo de ideas suicidas, un indicio de un problema grave de adicci¨®n al juego¡±, se?ala Pempus.

¡°Las investigaciones han demostrado que ChatGPT ha calificado consistentemente el riesgo de suicidio como m¨¢s bajo que el de los expertos humanosé¢.

Esta desconexi¨®n, afirma, sugiere que los chatbots no son adecuados para reconocer y responder a las se?ales m¨¢s peligrosas y urgentes en relaci¨®n con las ludopat¨ªas. Pempus tambi¨¦n se?ala un peligro m¨¢s sutil: los micromensajes que los LLM pueden enviar al responder a usuarios inseguros sobre su comportamiento de juego. ¡°Algunas personas pueden recibir sugerencias peligrosas para seguir apostando en situaciones en las que una persona les ayudar¨ªa a explorar si abstenerse de jugar es la mejor idea¡±, advierte.

Los operadores que utilizan IA para brindar asistencia, ?ayudan realmente?

Esto cobra mayor importancia a medida que las empresas de juegos de azar implementan cada vez m¨¢s la IA conversacional en las funciones de atenci¨®n al cliente y asistencia en apuestas. Para construir sistemas de IA m¨¢s seguros y alineados en el ¨¢mbito del juego, incorporar la experiencia vivida es fundamental, afirma Whyte. Tambi¨¦n destac¨® el desaf¨ªo de detectar el da?o ¨²nicamente mediante el di¨¢logo.

¡°La adicci¨®n al juego es mucho m¨¢s compleja que intentar resolver problemas de ajedrez. Esta podr¨ªa ser la prueba definitiva de un sistema de IA: intentar distinguir el comportamiento de juego recreativo del comportamiento de riesgo basado ¨²nicamente en el chaté¢.

Pempus tiene una perspectiva diferente. Si bien la IA puede tener un lugar en la atenci¨®n al cliente, Pempus establece una clara l¨ªnea ¨¦tica: los operadores no deber¨ªan ser quienes brinden apoyo para el juego responsable mediante IA. ¡°Los operadores deber¨ªan, y de hecho ofrecen, herramientas para ayudar a los usuarios a controlar el juego¡±, afirm¨®. ¡°Sin embargo, no deber¨ªan usar la IA para involucrarse directamente en brindar apoyo u orientaci¨®n a personas con problemas de adicci¨®n al juegoé¢.

Mientras tanto, Michael Pollock, asesor principal de pol¨ªticas de Spectrum Gaming Group, dijo a SiGMA News: ¡°Se requieren est¨¢ndares adecuados de prueba, monitoreo y licencia que proh¨ªban a los operadores participar en esfuerzos relacionados con IA que no est¨¦n en l¨ªnea con un compromiso firme y total con el juego responsableé¢.

La IA deber¨ªa alimentarse de datos propios, seg¨²n un experto

Para mejorar la precisi¨®n y la seguridad, Whyte sugiri¨® integrar datos propios, como el historial de transacciones o las p¨¦rdidas recientes, en los modelos de IA. ¡°El mismo lenguaje y las mismas palabras pueden tener un tono completamente diferente dependiendo de si el usuario acaba de perder 500.000 € o acaba de ganar un buen premio y se va de vacaciones¡±, explic¨®. ¡°El contexto es todoé¢.

Pollock afirm¨® lo siguiente: ¡°La continua evoluci¨®n de la IA debe ir acompa?ada de una supervisi¨®n regulatoria adecuada. Esto significa que los reguladores deben estar al d¨ªa y mantenerse al tanto de todos los avances¡±.

?Por qu¨¦ AiR Hub hizo un estudio y por qu¨¦ ahora?

El inter¨¦s del equipo de AiR Hub en examinar los consejos sobre apuestas generados por IA surgi¨® de un cambio notable en la forma en que las personas acceden a la informaci¨®n. ¡°La recuperaci¨®n de informaci¨®n ha cambiado radicalmente¡±, dijo Ghaharian a SiGMA News. ¡°Con los chatbots, obtenemos una respuesta instant¨¢nea y ya no tenemos que filtrar los resultados de una lista de motores de b¨²squedaé¢. Este cambio tiene serias implicaciones en ¨¢reas de alto riesgo como las apuestas.

El equipo elabor¨® ??nueve preguntas, cada una correspondiente a un ¨ªtem del PGSI, y las present¨® a dos importantes LLM: GPT-4o y Llama, elegidos por ser los modelos propietarios y de c¨®digo abierto m¨¢s populares en el momento del estudio. En lugar de basarse en puntuaciones r¨ªgidas, los investigadores optaron por evaluaciones cualitativas abiertas realizadas por 23 consejeros de juego experimentados con m¨¢s de 17.000 horas de experiencia combinada en tratamientos. ¡°No quer¨ªamos imponer un sistema de puntuaci¨®n r¨ªgido que pudiera pasar por alto matices o forzar un consenso donde no lo hab¨ªa¡±, explic¨® Ghaharian. En su lugar, se pidi¨® a los consejeros que explicaran si consideraban las respuestas de la IA ¨²tiles, enga?osas o potencialmente perjudiciales.

Si bien ninguno de los modelos super¨® convincentemente al otro, los revisores expertos descubrieron que ambos tend¨ªan a generar respuestas que pod¨ªan malinterpretarse o, peor a¨²n, a incitar sutilmente a seguir jugando. ¡°Probablemente la mayor se?al de alerta fue que ambos modelos tend¨ªan a ofrecer consejos que pod¨ªan malinterpretarse¡±, se?al¨® Ghaharian. ¡°Esto es especialmente preocupante cuando los usuarios pueden encontrarse en una situaci¨®n vulnerableé¢.

Si bien el estudio piloto revel¨® tendencias preocupantes, tambi¨¦n sent¨® las bases para soluciones. Ghaharian afirm¨®: ¡°El estudio sienta las bases importantes al destacar los posibles riesgos y limitaciones de los LLM en contextos relacionados con el juego. Pero esto es solo el comienzo, y hay mucho m¨¢s por haceré¢. Investigadores de AiR Hub y la UNLV trabajan actualmente en un conjunto de datos de referencia de indicaciones y respuestas ideales relacionadas con el juego, dise?ado para su uso tanto por desarrolladores de IA como por plataformas de juego. Este punto de referencia tambi¨¦n podr¨ªa cumplir una funci¨®n regulatoria. ¡°Un organismo regulador podr¨ªa exigir que cualquier LLM orientado al cliente implementado por un operador con licencia se eval¨²e con respecto al punto de referencia¡±, propuso Ghaharian. ¡°Eso ayudar¨ªa a garantizar que pueda reconocer indicaciones potencialmente da?inas y generar respuestas adecuadas y responsablesé¢.

?nete a la comunidad de iGaming m¨¢s grande del mundo con el top 10 de noticias de SiGMA. Suscr¨ªbete  para conocer la opini¨®n de expertos, recibir actualizaciones semanales y obtener ofertas exclusivas para suscriptores.