23 de octubre de 2025

Igualdad y riesgo de discriminación algorítmica

El principio de igualdad ante la ley (art. 14 CE) obliga a que las normas y su aplicación no establezcan diferencias de trato arbitrarias o injustificadas entre personas en situaciones equivalentes. En este caso, la intención declarada de la DGOJ es precisamente fomentar la igualdad material en la protección de los jugadores: que un jugador con patrón adictivo sea detectado y atendido igual, ya juegue en la plataforma A o en la B. Se busca evitar la disparidad actual, donde un jugador podría pasar inadvertido en un operador permisivo pero sería marcado en otro más estricto, generando desigualdad en la tutela de su bienestar. Desde esa perspectiva, la medida tiene un propósito igualitario legítimo (un “mismo rasero” para todos los participantes del mercado del juego).

Igualdad y riesgo de discriminación algorítmica

No obstante, surgen otros ángulos de la igualdad que deben contemplarse. En primer lugar, la opacidad del algoritmo puede implicar que dos jugadores con conductas objetivamente similares no reciban el mismo trato porque el modelo – por razones complejas de su entrenamiento – califique a uno como de riesgo y al otro no. La elaboración de perfiles automatizada puede esconder sesgos: por ejemplo, si entre las >60 variables hay alguna proxy de la situación socioeconómica, podría darse que ciertos perfiles (personas de menor renta que juegan cantidades pequeñas pero frecuentes) sean marcados con más probabilidad que otros (personas de alta capacidad que juegan fuerte esporádicamente), aun teniendo ambos un gasto relativo comparable. Sin transparencia ni explicabilidad, es difícil verificar que el algoritmo no esté introduciendo diferencias de trato indirectas. El RGPD en su considerando advierte que deben implementarse salvaguardias para evitar discriminaciones, y sugiere revisar regularmente los algoritmos para detectar y corregir sesgos. ¿Contempla la DGOJ tales auditorías? No se ha informado de ello. La igualdad exige que todos los jugadores sean medidos con criterios objetivos y no arbitrarios; un modelo de IA mal controlado podría vulnerarlo al basar decisiones en correlaciones espurias que afecten diferencialmente a colectivos.

En segundo lugar, hay que considerar la posible afectación de categorías protegidas. El art. 14 CE prohíbe discriminaciones por motivos como el sexo, raza, origen, opinión, etc. Es de suponer que el algoritmo no utiliza datos personales sensibles como raza o religión (que ni siquiera obran en poder del operador). Pero podría utilizar la edad o el sexo, variables demográficas disponibles. ¿Sería legítimo? Desde el punto de vista de la protección del jugador, cabría justificar que, por ejemplo, la juventud (<25 años) se use como factor de riesgo (los jóvenes pueden ser más vulnerables). Sin embargo, esto supone un trato desigual por edad que debería estar muy fundamentado en evidencias científicas y respetar el mandato de generalidad de la norma. Si la resolución no menciona nada al respecto, ¿significa que el algoritmo incluye la edad sin un debate público? Podría dar pie a alegaciones de discriminación etaria indirecta. Un jugador joven podría preguntar: “¿por qué se me restringe antes que a otro mayor con el mismo comportamiento?”. Situación similar ocurriría si se utilizasen variables como la ubicación geográfica (por ejemplo, si vive en barrio humilde vs. rico) o estado civil, etc., que no deberían en principio influir en el riesgo de ludopatía pero podrían colarse vía datos económicos.

Asimismo, conviene recordar que el principio de igualdad ante la ley también se aplica a la actividad de la Administración: esta no puede imponer cargas o requisitos desiguales a operadores que estén en igualdad de condiciones, salvo justificación. Imponer un mismo modelo a todos podría parecer lo contrario a la discriminación (es un trato uniformizador); sin embargo, si algún operador (por su perfil de clientes, tipo de juego ofrecido, etc.) considera que el modelo le resulta inadecuado o desproporcionado, la imposición rígida podría ser en su caso particularmente gravosa, y la negativa de la DGOJ a permitirle alternativas podría tildarse de falta de igualdad de oportunidades o de trato diferenciado encubierto (pues quizá los grandes operadores asumen el coste fácilmente, mientras uno pequeño sufre más proporcionalmente). Aquí, la igualdad enlaza con la libertad de empresa: igualdad en el mercado significa que las regulaciones no favorezcan a unos operadores sobre otros de forma injustificada. Habrá que vigilar que el modelo único no termine beneficiando a los actores con más datos (que entrenan mejor el algoritmo) y perjudicando a nichos de mercado distintos.

En síntesis, aunque la resolución busca la igualdad en la protección del jugador, podría generar desigualdades nuevas si el algoritmo no es transparentemente justo. La falta de transparencia algorítmica dificulta verificar el cumplimiento del art. 14 CE. Además, la ausencia de un régimen claro de impugnación individual deja al jugador potencialmente discriminado sin remedios eficaces. La igualdad exige no solo intenciones, sino medios: medios para detectar y corregir cualquier sesgo o trato desigual que surja. Sin tales medidas, la resolución puede terminar vulnerando el principio de igualdad material y, por ende, ser constitucionalmente cuestionable.

365tempranolopez.es