El rápido avance de la inteligencia artificial suele asociarse a mejoras constantes en sus capacidades, pero diversos estudios siguen evidenciando carencias importantes en materia de seguridad y protección de los usuarios. Una investigación reciente realizada en el Reino Unido ha puesto de relieve que varios asistentes de inteligencia artificial no cumplen plenamente con la normativa vigente sobre juego online.
El estudio fue llevado a cabo por periodistas del diario The Guardian y la cooperativa de investigación Investigate Europe. Durante sus pruebas, los reporteros comprobaron que algunos chatbots ofrecían información sobre plataformas de apuestas que operan fuera de la legalidad en Reino Unido, además de sugerencias sobre cómo eludir mecanismos de protección para jugadores vulnerables.
La investigación analizó los sistemas desarrollados por cinco de las principales compañías tecnológicas: OpenAI, Google, Microsoft, Meta y xAI. Para evaluar su adecuación a la normativa, los investigadores formularon preguntas relacionadas con casinos online, apuestas y restricciones de acceso al juego
Según el informe, algunos asistentes llegaron a recomendar sitios de apuestas ilegales o a explicar cómo evitar mecanismos de control, entre ellos la autoexclusión de casinos y plataformas de apuestas. Este punto resulta especialmente preocupante, ya que la autoexclusión es una herramienta clave utilizada por personas que han tenido problemas con el juego para impedir su acceso a este tipo de servicios.
El hecho de que un chatbot sugiera formas de sortear estos bloqueos puede facilitar recaídas y evidencia fallos en los sistemas de salvaguarda que las compañías tecnológicas afirman aplicar en sus modelos.
La investigación también detectó que algunas respuestas incluían argumentos promocionales típicos del sector de las apuestas, como referencias a bonos de bienvenida, rapidez en las retiradas o incluso la posibilidad de utilizar criptomonedas para evitar dejar rastro de la actividad de juego.














