- Conferè¯ncias
- Not¨ªcias
- Funda??o SiGMA
- Treinamento & Consultoria
- Tour de P?quer
- SiGMA 바카ë¼
- Sobre
? medida que chatbots baseados em IA como o GPT se tornam ferramentas populares para respostas r¨¢pidas e at¨¦ apoio emocional, um n¨²mero crescente de pessoas com problemas de jogo est¨¢ recorrendo a essas intelig¨ºncias artificiais em vez de terapeutas ou linhas de apoio. No entanto, um novo estudo do AiR Hub alerta: os modelos de linguagem de ¨²ltima gera??o podem estar oferecendo conselhos equivocados ¡ª e at¨¦ prejudiciais ¡ª para quem enfrenta o v¨ªcio em apostas.
A pesquisa, conduzida por Kasra Ghaharian, Ph.D., Diretor de Pesquisa do International Gaming Institute da Universidade de Nevada, Las Vegas (UNLV) e cofundador do AiR Hub, testou como dois dos principais modelos de linguagem ¡ª GPT-4o (ChatGPT) e o Llama, da Meta ¡ª respondem a perguntas inspiradas no ?ndice de Gravidade de Problemas com Jogo (PGSI). O objetivo era avaliar se esses modelos promovem o jogo respons¨¢vel ou, sem querer, incentivam comportamentos de risco.
¡°Sab¨ªamos que as pessoas j¨¢ estavam usando chatbots baseados em LLMs para fazer perguntas sobre apostas. Pensamos que seria interessante investigar empiricamente como essas intelig¨ºncias respondem, especialmente a perguntas ligadas ao jogo problem¨¢tico¡±, contou Ghaharian ¨¤ SiGMA News.
As respostas geradas por IA foram avaliadas por 23 profissionais experientes no tratamento do v¨ªcio em jogos ¡ª somando mais de 17 mil horas de atua??o cl¨ªnica. O resultado: os especialistas notaram que os dois modelos falham em fornecer orienta??es claras e respons¨¢veis, especialmente quando as perguntas indicavam comportamento de risco. O estudo apontou que ¡°algumas respostas incentivavam, de forma sutil, a continua??o do jogo; outras escondiam conselhos pr¨¢ticos em explica??es longas ou utilizavam jarg?es que, segundo os especialistas, poderiam ser mal interpretados¡±.
O chamado ¡°alinhamento da IA¡± ¡ª ou seja, garantir que os sistemas ajam de forma coerente com os valores humanos e padr?es de seguran?a ¡ª ¨¦ essencial em contextos sens¨ªveis. Mas, no caso do jogo, esse desafio se intensifica. Chatbots precisam n?o apenas responder com precis?o a perguntas comuns sobre apostas, mas tamb¨¦m detectar quando um usu¨¢rio pode estar em situa??o de risco.
Ghaharian observa que perguntas simples s?o geralmente bem tratadas pelos assistentes. Brian Pempus, fundador da plataforma GamblingHarm.org, concorda. Segundo ele, modelos como o ChatGPT t¨ºm a capacidade t¨¦cnica de reconhecer sinais cl¨¢ssicos de v¨ªcio em apostas ¡ª mas com limita??es.
¡°O ChatGPT parece preparado para reconhecer os principais sinais de jogo problem¨¢tico, conforme estabelecidos pelo DSM-5¡±, afirma Pempus. ¡°Mas identificar sinais mais pessoais e subjetivos depende de qu?o profundamente o usu¨¢rio descreve sua experi¨ºncia com o jogo.¡±
Quando as perguntas ficam mais complexas, os modelos de IA come?am a falhar. ¡°Se a pergunta mostra sinais de dano ou apresenta nuances mais sens¨ªveis, pode n?o haver dados confi¨¢veis ou mecanismos de seguran?a suficientes para que o assistente entenda a gravidade ou at¨¦ se deveria responder¡±, explica Ghaharian.
Essa preocupa??o ¨¦ compartilhada por Keith Scott Whyte, fundador da Safer Gambling Strategies LLC. Em entrevista ¨¤ SiGMA News, ele afirmou: ¡°O v¨ªcio em jogos ainda carrega um forte estigma e, em muitos aspectos, ainda ¨¦ mal compreendido. Por isso, n?o surpreende que os chatbots tenham dificuldade em captar nuances de linguagem e contexto.¡±
Whyte ¨¦ direto ao sugerir uma abordagem de precau??o:
¡°Do ponto de vista da seguran?a do jogador, o chatbot deveria presumir que o usu¨¢rio tem um problema ¡ª at¨¦ que se prove o contr¨¢rio. O princ¨ªpio do ¡®n?o causar dano¡¯ ¨¦ mais relevante do que nunca nesse contexto.¡±
Ele alerta que falhar ao diferenciar um jogador em risco de um usu¨¢rio casual pode ser ¡°uma quest?o de vida ou morte¡±. ¡°N?o estamos falando de errar um pedido de comida ¡ª aqui, as consequ¨ºncias podem ser catastr¨®ficas¡±, refor?a.
Em uma conversa franca com a SiGMA, Pempus destacou uma das preocupa??es mais graves: a forma como os chatbots avaliam risco de suic¨ªdio, especialmente entre jogadores compulsivos. ¡°O v¨ªcio em jogos est¨¢ fortemente associado a pensamentos suicidas ¡ª um sinal claro de um problema s¨¦rio¡±, explica.
¡°Pesquisas mostram que o ChatGPT tende a subestimar o risco de suic¨ªdio em compara??o com especialistas humanos.¡±
Essa discrep?ncia, segundo Pempus, mostra que os chatbots ainda s?o insuficientes para identificar e lidar com os sinais mais urgentes de danos causados pelo jogo. Ele tamb¨¦m destaca um risco mais sutil: as mensagens impl¨ªcitas que um modelo de linguagem pode transmitir ao responder a usu¨¢rios inseguros sobre seus pr¨®prios h¨¢bitos de jogo. ¡°H¨¢ casos em que o chatbot acaba incentivando a pessoa a continuar apostando, quando um profissional humano a ajudaria a refletir se o melhor n?o seria parar.¡±
A discuss?o se torna ainda mais relevante agora que casas de apostas v¨ºm adotando IAs conversacionais no atendimento ao cliente e at¨¦ em fun??es ligadas ¨¤ aposta. Para Whyte, incorporar experi¨ºncias vividas por jogadores reais ¨¦ indispens¨¢vel para desenvolver sistemas seguros e alinhados. Ele tamb¨¦m lembra que ¨¦ extremamente dif¨ªcil detectar sinais de risco apenas por meio do di¨¢logo.
¡°O v¨ªcio em jogos ¨¦ muito mais complexo do que resolver uma partida de xadrez. Talvez esse seja o maior teste para um sistema de IA: conseguir distinguir o comportamento de lazer daquele que j¨¢ apresenta sinais de depend¨ºncia.¡±
Pempus tem uma vis?o mais cr¨ªtica. Embora reconhe?a que a IA pode ter utilidade no suporte ao cliente, ele tra?a um limite ¨¦tico claro: as operadoras n?o deveriam ser respons¨¢veis por oferecer suporte ao jogo respons¨¢vel por meio de IA. ¡°As operadoras devem, sim, oferecer ferramentas para ajudar os jogadores a controlar o uso da plataforma. Mas n?o cabe a elas utilizar IA para fornecer suporte direto a quem est¨¢ lidando com um v¨ªcio.¡±
Michael Pollock, consultor s¨ºnior da Spectrum Gaming Group, tamb¨¦m defende regulamenta??es rigorosas nesse cen¨¢rio. Em entrevista ¨¤ SiGMA News, afirmou: ¡°S?o necess¨¢rias normas claras de teste, monitoramento e licenciamento, que pro¨ªbam o uso de IA por operadoras se n?o houver um compromisso firme com o jogo respons¨¢vel.¡±
Para melhorar a precis?o e a seguran?a desses sistemas, Whyte sugere que os modelos de IA incorporem dados prim¨¢rios ¡ª como hist¨®rico de transa??es ou perdas recentes do jogador. ¡°As mesmas palavras podem ter significados muito diferentes dependendo do contexto. N?o ¨¦ igual algu¨¦m que acabou de perder €500 mil e algu¨¦m que ganhou e est¨¢ indo de f¨¦rias. O contexto muda tudo.¡±
Pollock concorda: ¡°A evolu??o da IA deve ser acompanhada por uma supervis?o regulat¨®ria ¨¤ altura. Os ¨®rg?os reguladores precisam acompanhar e entender todos os avan?os.¡±
A motiva??o do AiR Hub para investigar as respostas de IAs sobre jogos de azar veio de uma mudan?a comportamental evidente: a forma como acessamos informa??o est¨¢ mudando rapidamente. ¡°A busca por informa??o mudou radicalmente¡±, afirmou Ghaharian. ¡°Hoje, usamos chatbots para obter respostas instant?neas, sem precisar navegar por p¨¢ginas de resultados em buscadores.¡± Esse novo h¨¢bito tem implica??es s¨¦rias em ¨¢reas de alto risco ¡ª como o v¨ªcio em jogos.
No estudo, a equipe elaborou nove perguntas baseadas no ¨ªndice PGSI e as submeteu a dois dos modelos mais populares da ¨¦poca: GPT-4o e Llama. Em vez de usar um sistema de pontua??o r¨ªgido, os pesquisadores optaram por avalia??es qualitativas, feitas por 23 conselheiros especializados ¡ª com mais de 17 mil horas combinadas de experi¨ºncia. ¡°N?o quer¨ªamos impor um sistema de notas que ignorasse nuances ou for?asse consenso onde ele n?o existia,¡± explicou Ghaharian. Os avaliadores foram convidados a relatar se acharam as respostas ¨²teis, confusas ou potencialmente perigosas.
Embora nenhum modelo tenha se destacado de forma consistente, os especialistas identificaram um padr?o preocupante: ambos tendem a gerar respostas amb¨ªguas ¡ª que podem ser mal interpretadas ou at¨¦ incentivar a continuidade do jogo. ¡°O maior alerta foi perceber que os dois modelos apresentavam respostas que podiam ser interpretadas de forma errada,¡± destacou Ghaharian. ¡°Isso ¨¦ especialmente grave quando o usu¨¢rio est¨¢ em situa??o vulner¨¢vel.¡±
Apesar dos resultados preocupantes, o estudo abre caminhos para solu??es. ¡°O estudo destaca riscos e limita??es dos LLMs no contexto dos jogos de azar, mas esse ¨¦ s¨® o come?o. H¨¢ muito mais a ser feito,¡± afirmou Ghaharian. O AiR Hub e a UNLV est?o agora desenvolvendo um benchmark com prompts relacionados a jogos de azar e respostas consideradas ideais ¡ª destinado tanto a desenvolvedores de IA quanto a plataformas de apostas. Esse benchmark tamb¨¦m pode ser adotado por reguladores. ¡°Um regulador poderia exigir que qualquer IA voltada para o p¨²blico ¡ª usada por operadoras licenciadas ¡ª fosse testada com esse benchmark,¡± prop?e Ghaharian. ¡°Isso ajudaria a garantir que o sistema reconhe?a sinais de risco e gere respostas adequadas e respons¨¢veis.¡±