
Braida es una consultora independiente española para el sector del juego. En esta sección, ofreceremos cada mes un análisis exclusivo sobre un asunto de actualidad en la industria en España y Latinoamérica. Bienvenidos a Las claves de Braida.
El Programa de Juego Seguro 2026–2030: más datos, más intervención, mismos retos.
La Dirección General de Ordenación del Juego ya ha definido su hoja de ruta en materia de juego seguro para los próximos años. El Programa 2026–2030 no es solo una actualización del anterior: deja bastante claro hacia dónde se quiere llevar el modelo. Y la dirección es inequívoca: más datos, más capacidad de intervención y menos dependencia de la supuesta “racionalidad” del jugador.
Del “juego responsable” al “juego seguro”
El cambio de concepto no es solo terminológico.
Durante años, el modelo se apoyaba en la idea de que el jugador, con información y herramientas, podía tomar decisiones racionales. Eso sigue estando ahí, pero pierde peso. Ahora el foco está en otra cosa: qué hace el jugador, cómo se comporta y qué señales deja. Y, sobre todo, cómo se traducen esas señales en decisiones regulatorias.
En la práctica, es un modelo bastante más intervencionista. Y también más exigente para todos los actores. Misma estructura, pero con otro centro de gravedad El programa mantiene los tres bloques clásicos: análisis, prevención y promoción. Hasta ahí, continuidad.
La diferencia es que ahora todo gira alrededor del dato. No solo para entender el mercado, sino como base de decisión. Y eso cambia bastante el escenario: ya no es solo cumplir normas, sino entrar en la forma en que se mide y se interpreta el comportamiento.
La construcción de los datos
Aquí el discurso entra en su parte menos cómoda.
El programa apuesta por modelos de comportamiento, indicadores de riesgo y detección temprana. Es lógico. Pero hay un punto que conviene no perder de vista: los datos no hablan solos.
Se construyen, se interpretan y se utilizan con un objetivo. Y en un entorno regulatorio, eso significa que definir mal el riesgo tiene consecuencias, que reaccionar en exceso también las tiene, y que no reaccionar, evidentemente, también puede tenerlas.
Dicho de otra forma: no es lo mismo detectar riesgo que definir qué es riesgo. Y ahí es donde pueden aparecer problemas: falsos positivos, criterios poco homogéneos o decisiones difíciles de justificar.
La detección temprana: donde todo se complica
El desarrollo de un sistema común de detección de comportamientos de riesgo es, probablemente, la pieza más importante del programa.
Sobre el papel, tiene todo el sentido: homogeneiza criterios, reduce arbitrariedad y mejora la capacidad preventiva.
Pero también es donde el margen de error es mayor. Porque, en el fondo, todo se reduce a una cuestión clave: qué consideramos comportamiento de riesgo y cuándo decidimos actuar.
Si el modelo es demasiado sensible, acabas interviniendo donde no toca. Si es demasiado conservador, llegas tarde.
El test de juego seguro: una pieza olvidada que vuelve a escena
Hay un elemento menos visible en el programa, pero con impacto directo en la operativa: la revisión del test de juego responsable —ahora juego seguro— vinculado a la ampliación/eliminación de límites de depósito.
Este test lleva años sin cambios, en un contexto de mercado muy distinto al actual. Su reformulación tiene sentido. Lo que está por ver es cómo se hace.
En la práctica, muchos operadores ya no basan sus decisiones únicamente en el resultado del test. Incluso cuando el usuario lo supera, es habitual que la decisión sobre la modificación de límites se apoye también en el análisis del comportamiento de juego y en otros indicadores disponibles.
En este contexto, el debate no es tanto su validez, sino su integración dentro del sistema global de evaluación del riesgo. En entornos donde ya existe monitorización continua, estos instrumentos tienden a funcionar mejor como elementos complementarios que como mecanismos aislados de decisión.
La clave, por tanto, está en su encaje dentro del modelo: evitar duplicidades, asegurar coherencia con los datos de comportamiento y definir claramente qué aporta cada herramienta al conjunto del sistema.
El papel de la información y la sensibilización
El programa define con bastante claridad quién va a liderar las acciones de sensibilización. La Dirección General de Ordenación del Juego asume el papel central en la comunicación institucional, especialmente en entorno digital, con apoyo de las Comunidades Autónomas y bajo un marco en el que los operadores también deben desarrollar sus propias iniciativas de información al usuario.
Es un planteamiento lógico desde el punto de vista organizativo. Ahora bien, más allá de quién comunica, la clave estará en el contenido y el enfoque de la información. En relación con el juego no regulado, el programa incorpora algunas líneas de actuación relevantes: desde el análisis de la percepción del mercado ilegal a través de encuestas, hasta la difusión de información sobre operadores autorizados o el refuerzo de herramientas vinculadas a la lucha contra el fraude y la suplantación.
Habrá que ver cómo desarrolla este punto la Dirección General de Ordenación del Juego en sus canales, porque aquí es donde la parte pedagógica puede tener un impacto directo en la toma de decisiones del usuario. La forma en que se desarrolle este punto será determinante. En muchos casos, la diferencia no está en tener más información, sino en que el usuario entienda realmente el entorno en el que está jugando.
El reto real: que el modelo funcione en la práctica
El programa puede estar bien planteado a nivel conceptual, pero el éxito no va a depender de lo que está escrito, sino de cómo se aplique.
Porque el equilibrio es complicado: proteger al participante sin bloquear la operativa y sin empujar al usuario fuera del mercado regulado.
Y esto último es especialmente relevante. Porque fuera del entorno regulado no hay ni datos, ni control, ni protección.
El rigor de los datos
Y, por último, hay una condición previa que no puede pasarse por alto: el rigor en los datos. No todos los datos son equivalentes, ni todas las interpretaciones son neutras. Experiencias recientes, como algunas lecturas del Estudes o de otros estudios agregados, han mostrado cómo la selección parcial de indicadores puede acabar construyendo relatos más útiles para la crítica que para el diagnóstico real.
Sería imprescindible definir con precisión qué datos se utilizan, cómo se depuran y con qué criterios se interpretan.
La clave no estará únicamente en acumular más información, sino en avanzar hacia un marco de diálogo real entre regulador y operadores que permita definir de forma compartida qué significa proteger al jugador y cómo trasladar ese objetivo a criterios operativos coherentes, medibles y aplicables. En la práctica, estos criterios se construyen y se ajustan de forma continua a partir del análisis del comportamiento real del jugador, con equipos operativos que revisan señales, contrastan patrones y están atentos a cualquier indicio que requiera intervención.
Sin ese rigor y sin esa coordinación, el dato deja de ser una herramienta de mejora para convertirse en una fuente de error estructural.