Openai/692fde9a-60d0-800a-9cb5-6750c6c1e5a3
This conversation was exported from ChatGPT[1]
gpt-5-t-mini[edit | edit source]
User: Hola, podrias darme la maxima informacion posible sobre la propuesta de la ley europea Chat Control 2.0?.[edit | edit source]
Hola, podrias darme la maxima informacion posible sobre la propuesta de la ley europea Chat Control 2.0?. Detalles de los argumentos y datos a favor y en contra hasta dia de hoy, 2/12/2025
Assistant: Perfecto — te hago un resumen amplio, claro y con referencias sobre la llamada “Chat Control 2.0” / Regulation to Preve…[edit | edit source]
Perfecto — te hago un resumen amplio, claro y con referencias sobre la llamada “Chat Control 2.0” / Regulation to Prevent and Combat Child Sexual Abuse (CSAR), estado y debate hasta el 2 de diciembre de 2025. Si quieres que lo desarrolle (más técnico, jurídico o con ejemplos prácticos) dímelo y lo amplío.
1) ¿Qué es exactamente la propuesta?[edit | edit source]
Es un reglamento de la UE cuyo objetivo declarado es prevenir y combatir el abuso sexual infantil en línea (CSAM). Introduce obligaciones para proveedores de servicios digitales (mensajería, redes sociales, almacenamiento en la nube, etc.) para detectar, reportar y ayudar a eliminar material de abuso infantil, y crea un Centro de la UE para coordinar informes y bases de indicadores. La propuesta original (Comisión 2022) incluía mecanismos que permiten la detección incluso en comunicaciones cifradas, mediante técnicas como client-side scanning (escaneo en el dispositivo antes de cifrar) y el uso de herramientas automáticas (hashing, IA) para identificar CSAM. eur-lex.europa.eu[2]
2) ¿Cuál es el estado legislativo (a 2/12/2025)?[edit | edit source]
- El Consejo de la UE aprobó su posición negociadora (general approach) el 26 de noviembre de 2025, con cambios respecto al texto original, indicando que mantiene medidas para prevenir CSAM y creando el EU Centre on Child Sexual Abuse; abre la vía a la negociación final (trílogo) con el Parlamento. Consilium[3]
- Tras mucha presión pública y técnica, algunos Estados (ej. Alemania) se opusieron a la versión que habría impuesto escaneo indiscriminado; el texto del Consejo suavizó elementos y habló de mantener la posibilidad de actividades de detección voluntarias y de imponer “medidas de mitigación de riesgos” que podrían empujar a proveedores a actuar. Aun así, expertos y ONG consideran que el riesgo de vigilancia masiva sigue presente. TechRadar[4]
3) ¿Qué cambia técnicamente respecto a la ley original?[edit | edit source]
Puntos clave técnicos/operativos que aparecen en la redacción y en el debate:
- Client-side scanning (CSS): posibilidad de analizar contenido en el dispositivo antes de cifrar y enviar. Esto es lo más polémico porque afecta el principio de cifrado de extremo a extremo. TechRadar[5]
- Hashing y bases de datos de indicadores: comparaciones automáticas con bases de huellas (hashes) de material conocido y listas de “indicadores” mantenidas por el futuro Centro. Consilium[6]
- IA/algoritmos de detección: uso de modelos para detectar contenido sospechoso (texto, imagen, vídeo), con riesgo de falsos positivos y sesgos. European Crypto Initiative[7]
- Obligaciones por riesgo: el texto del Consejo empuja a distinguir proveedores según riesgo y tamaño; los considerados “alto riesgo” pueden tener obligaciones más fuertes. Consilium[8]
4) Argumentos a favor (resumen y datos)[edit | edit source]
- Protección de niños y detección temprana: los proponentes dicen que millones de imágenes/archivos circulan y que los proveedores deben ayudar a detectar y retirar CSAM para identificar y ayudar a víctimas. El Reglamento se plantea como herramienta para identificar a víctimas y a los delincuentes. eur-lex.europa.eu[9]
- Coordinación centralizada: crear un Centro de la UE permitiría unificar indicadores, mejorar cooperación entre proveedores, autoridades y Europol, y dar asistencia a víctimas. Consilium[10]
- Remedio para lagunas legales: defensores argumentan que la legislación previa no obliga suficientemente a todos los actores y que los delincuentes usan cada vez más servicios cifrados para distribuir CSAM. Organizaciones centradas en protección infantil apoyan medidas más fuertes. iwf.org.uk[11]
5) Argumentos en contra (resumen y datos)[edit | edit source]
- Riesgo para el cifrado y la seguridad: técnicos, Signal y cientos de criptógrafos sostienen que introducir escaneo en cliente o “puertas” supone crear puntos débiles explotables por atacantes o gobiernos; degradaría la seguridad global. Más de 500 investigadores/criptógrafos firmaron una carta pública avisando de esa “inviabilidad técnica” y de los riesgos. TechRadar[12]
- Vigilancia masiva y derechos fundamentales: ONG de derechos digitales (EDRi, Statewatch, etc.) alertan de que la obligatoriedad o la presión para implementar escaneos puede convertirse en vigilancia masiva, afectando privacidad, libertad de expresión y el secreto de las comunicaciones. European Digital Rights (EDRi)[13]
- Falsos positivos y daños colaterales: los algoritmos no son perfectos; imágenes familiares, arte o conversaciones privadas pueden marcarse por error, generando denuncias, “stalking” institucional, daño reputacional o intervenciones indebidas. Además, periodistas, activistas y denunciantes podrían verse expuestos. ecpmf.eu[14]
- Ampliación de uso (scope creep): críticos temen que medidas inicialmente justificadas contra CSAM puedan ampliarse luego a otros fines (terrorismo, delitos económicos), creando infraestructura de vigilancia permanente. European Digital Rights (EDRi)[15]
- Incompatibilidad legal y constitucional: algunos Estados y expertos ven conflicto con derechos garantizados en la Carta de Derechos de la UE y con fallos precedentes que defienden el valor del cifrado. Alemania y otros han cuestionado la compatibilidad con sus constituciones. TechRadar[16]
6) Evaluación técnica — ¿es viable proteger la privacidad y detectar al mismo tiempo?[edit | edit source]
- La opinión predominante entre muchos expertos en seguridad es que no existe una solución técnica limpia que preserve plenamente el cifrado E2EE y al mismo tiempo permita escanear todo sin crear vulnerabilidades estructurales. Por eso la carta de científicos (y varias asociaciones) dicen que la propuesta es técnicamente inviable o peligrosamente costosa en seguridad. SpeakFreely[17]
7) Consecuencias prácticas si el texto final se aprobara (posibles escenarios)[edit | edit source]
- Proveedores grandes (WhatsApp, Signal, Telegram, Meta) tendrían que evaluar costes legales/operativos: implementar CSS, modificar productos o retirar servicios de la UE si consideran el coste/riesgo excesivo. Algunas empresas ya han dicho que podrían abandonar mercados o rechazar técnicas que comprometan cifrado. TechRadar[18]
- Usuarios: más controles en servicios “alto riesgo”, posibles análisis automáticos de archivos privados, mayor riesgo de denuncias por falsos positivos y menor confianza en E2EE.
- Seguridad digital: potencial creación de “puntos únicos de fallo” en clientes que, si se vulneran, exponen comunicaciones a terceros.
8) Datos y cifras relevantes recogidas en el debate[edit | edit source]
- Fecha de la propuesta original de la Comisión: 11 mayo 2022 (COM/2022/209). eur-lex.europa.eu[19]
- 26 noviembre 2025: el Consejo adoptó su posición negociadora y habilitó el inicio del trilogue con el Parlamento; el texto introduce un Centro de la UE y mantiene la posibilidad de “actividades voluntarias” de escaneo, con énfasis en obligaciones basadas en riesgo. (Estado: negociación trilogo abierta). Consilium[20]
- Firma de carta de técnicos/criptógrafos: >500 expertos advirtieron (2025) sobre inviabilidad técnica y riesgos. Patrick Breyer[21]
9) Fuentes principales (para leer más — son las que he usado)[edit | edit source]
- Texto de la propuesta/comunicado oficial de la Comisión (Eur-Lex, COM/2022/209). eur-lex.europa.eu[22]
- Nota y posición del Consejo (press release, 26 Nov 2025). Consilium[23]
- EDRi — análisis y seguimiento crítico del “Chat Control”. European Digital Rights (EDRi)[24]
- Cobertura técnica / prensa y reacciones (TechRadar / Signal comentarios). TechRadar[25]
- Carta de más de 500 científicos/criptógrafos y recopilaciones (Patrick Breyer / documentaciones públicas). Patrick Breyer[26]
10) ¿Qué puede pasar ahora (pasos siguientes)?[edit | edit source]
- Trílogo: negociación entre Consejo y Parlamento. El Parlamento (posición de 2023) ya votó protecciones fuertes a favor del cifrado; el resultado dependerá de concesiones y del texto final. Consilium[27]
- Posibles enmiendas: se pueden reforzar salvaguardias (limitaciones, supervisión judicial, transparencia) o, por el contrario, mantener obligaciones de mitigación de riesgo que algunos interpretan como prescriptivas. Consilium[28]
- Presión pública y técnica: la movilización de ONG, expertos y la opinión pública seguirá influyendo (ya ha modificado apoyos de varios Estados). European Digital Rights (EDRi)[29]
Si quieres, en la siguiente respuesta te puedo:
- Desarrollar (más técnico): cómo funciona exactamente client-side scanning, hashing, tasas esperadas de falsos positivos y ejemplos concretos de ataques que se abrirían.
- Desarrollar (más jurídico): cómo encaja esto con la Carta de Derechos de la UE, el Convenio Europeo de Derechos Humanos y ejemplos de jurisprudencia relevante.
- Prepararte un dossier (resumen ejecutivo + pros/cons + fuentes y citas listas para enviar a un diputado/medio) en formato PDF o texto.
¿Cuál de esas opciones quieres que haga ya? (dime “desarrolla” + la opción que prefieras y voy al grano).
References[edit | edit source]
- ↑ "Ley Chat Control 2.0". ChatGPT. Retrieved 2025-12-03.
- ↑ "eur-lex.europa.eu". eur-lex.europa.eu. Retrieved 2025-12-03.
- ↑ "Consilium". consilium.europa.eu. 2025-11-26. Retrieved 2025-12-03.
- ↑ "TechRadar". techradar.com. Retrieved 2025-12-03.
- ↑ "TechRadar". techradar.com. Retrieved 2025-12-03.
- ↑ "Consilium". consilium.europa.eu. 2025-11-26. Retrieved 2025-12-03.
- ↑ "European Crypto Initiative". European Crypto Initiative. Retrieved 2025-12-03.
- ↑ "Consilium". consilium.europa.eu. 2025-11-26. Retrieved 2025-12-03.
- ↑ "eur-lex.europa.eu". eur-lex.europa.eu. Retrieved 2025-12-03.
- ↑ "Consilium". consilium.europa.eu. 2025-11-26. Retrieved 2025-12-03.
- ↑ "iwf.org.uk". iwf.org.uk. Retrieved 2025-12-03.
- ↑ "TechRadar". techradar.com. Retrieved 2025-12-03.
- ↑ "European Digital Rights (EDRi)". European Digital Rights (EDRi). Retrieved 2025-12-03.
- ↑ "ecpmf.eu". ecpmf.eu. Retrieved 2025-12-03.
- ↑ "European Digital Rights (EDRi)". European Digital Rights (EDRi). Retrieved 2025-12-03.
- ↑ "TechRadar". techradar.com. Retrieved 2025-12-03.
- ↑ "SpeakFreely". wespeakfreely.org. 2025-09-13. Retrieved 2025-12-03.
- ↑ "TechRadar". techradar.com. Retrieved 2025-12-03.
- ↑ "eur-lex.europa.eu". eur-lex.europa.eu. Retrieved 2025-12-03.
- ↑ "Consilium". consilium.europa.eu. 2025-11-26. Retrieved 2025-12-03.
- ↑ "Patrick Breyer". Patrick Breyer. Retrieved 2025-12-03.
- ↑ "eur-lex.europa.eu". eur-lex.europa.eu. Retrieved 2025-12-03.
- ↑ "Consilium". consilium.europa.eu. 2025-11-26. Retrieved 2025-12-03.
- ↑ "European Digital Rights (EDRi)". European Digital Rights (EDRi). Retrieved 2025-12-03.
- ↑ "TechRadar". techradar.com. Retrieved 2025-12-03.
- ↑ "Patrick Breyer". Patrick Breyer. Retrieved 2025-12-03.
- ↑ "Consilium". consilium.europa.eu. 2025-11-26. Retrieved 2025-12-03.
- ↑ "Consilium". consilium.europa.eu. 2025-11-26. Retrieved 2025-12-03.
- ↑ "European Digital Rights (EDRi)". European Digital Rights (EDRi). Retrieved 2025-12-03.