Ley de Protección de Datos Personales: desafíos y posibilidades
Leé hasta el final para conocer a una presentadora de noticias hecha con IA
El martes 1º de agosto tuve el gusto de asistir a un evento organizado por la Agencia de Acceso a la Información Pública (AAIP) en el Palacio San Martín —la sede del Ministerio de Relaciones Exteriores, un edificio bellísimo—, donde presentaron ante un público general la nueva Ley de Protección de Datos Personales, que fue recientemente elevada al Congreso de la Nación para su aprobación.
Partiendo de la base de que cualquier legislación o reglamentación siempre corre de atrás frente a los cambios sociales —dicho en otras palabras, la realidad siempre va más rápido que la ley—, considerar a los datos como materia prima y tratar de darle sentido a la tecnología que busca explotarlos hace que el desfasaje y la urgencia de encontrar puntos de acuerdo sean aún mayores.
Para desarrollarla, la AAIP buscó generar un espacio de diálogo abierto y recibieron 173 documentos con opiniones, aportes y comentarios de la ciudadanía, la sociedad civil, universidades e investigadores, el sector privado y público, nacional e internacional.
Por supuesto que creo que esta clase de iniciativas son sumamente necesarias, y celebro muchísimo que finalmente estemos llegando a esta etapa como país, así que me parece interesante hacer un breve repaso de lo que dijeron los asistentes en el evento para entender desde dónde se busca enmarcar esta discusión.
Apertura: Los Estados y los datos
La charla de apertura estuvo a cargo del Jefe de Gabinete de Ministros de la Nación, Agustín Rossi; el Ministro de Relaciones Exteriores y Culto de la Nación, Santiago Cafiero; la titular de la AAIP, Beatriz Anchorena; y el Jefe Adjunto de la Delegación de la Unión Europea en Argentina, Eran Nagan.
Anchorena dio inicio a la jornada hablando de la importancia de generar una ley “centrada en las personas”, buscando que el diseño, gobernanza y uso de la tecnología se orienten hacia el bienestar general. La propuesta busca un cambio de enfoque para pasar de la protección de registros de datos a garantizar el derecho de las personas a la protección de sus datos personales, con una perspectiva de derechos humanos y autodeterminación informativa.
“Necesitamos una articulación geoestratégica”, apuntó Santiago Cafiero, y en el contexto de leyes similares que se están aprobando en toda la región, claramente salta a la vista que no es un punto menor. En nuestro caso específico, hay un desafío adicional en el rol del Estado en la creación de las condiciones de emergencia de esta clase de tecnologías: “Para un país con la geografía de la Argentina, el octavo país en términos territoriales en el mundo, la conectividad de un país es un desafío en sí mismo. Si en la Argentina no hubiera Estado, el mercado nunca hubiera generado la conectividad necesaria para avanzar en este tipo de tecnologías y no tendríamos 12 unicornios de base tecnológica”, argumentó Cafiero.
Por su parte, Agustín Rossi puso el foco en que la protección de datos involucra no sólo responsabilidad de parte del Estado, sino también de las empresas que lucran con datos personales. “Esas empresas privadas tienen los permisos para acceder a esos datos y hacen un ejercicio legal de una actividad, pero con todas las complejidades que eso tiene. La mayoría de esas empresas tienen trazabilidad, pero nadie puede mirar hacia el costado y no ver que a través de ese uso pueden aparecer cuestiones más vinculadas a un ilícito, para las que habrá que buscar algún mecanismo de detección de alerta temprana. Son los nuevos desafíos de una democracia cada vez más digitalizada”, reflexionó.
“Hace seis meses nadie conocía ChatGPT, y ahora podría haberle pedido que haga mi discurso y nadie lo habría notado”, aseguró Eran Nagan —quien se encargó de aclarar que no lo había utilizado en esta ocasión—. Según el Jefe Adjunto, dado el desafío que es regular la IA, es necesaria la cooperación que está fomentando entre una veintena de países que intentan profundizar una alianza digital para generar una visión común.
Charla: De la Unión Europea al mundo
El evento siguió con una charla donde el Director del Departamento de Sociedad de la Información del Consejo de Europa, Patrick Penninckx, abordó los desafíos generales en materia de protección de datos personales e IA, haciendo un hermoso equilibrio entre democratizar los desarrollos y no hacerlo demasiado para no abrirle conocimiento a sus enemigos. Y por enemigos me refiero obviamente a Rusia, donde no faltaron referencias al “nosotros-buenos / ellos-malos”.
Pennincx argumentó que la tecnología no es neutral, y que tienen la responsabilidad de saber para qué la van a usar, y eso implica pensar para qué sociedad estamos preparándonos. “Mi hermano vive en una pequeña aldea en Taiwan, y cree que Trump feu el mejor presidente de los Estados Unidos y que Bolsonaro fue lo mejor para Brasil —confesó—. Esto es por la desinformación que recibe, amparada y potenciada por el microtargeting que permiten las redes sociales”.
Pennincx habló largo y tendido sobre los males de las cámaras de eco que generan las redes sociales, de los riesgos de dejar que las empresas sean las únicas responsables de la democratización de internet —mencionaba el caso de India, donde Facebook es sinónimo de Internet porque es quien llevó la conectividad al territorio— y de la pérdida de confianza en instituciones como los gobiernos o los medios de comunicación.
Pero a la vez, dice textualmente: “Trabajamos con Microsoft en el desarrollo de reconocimiento facial. Les pedimos que no exporten ciertas capacidades de esos modelos a ciertos partners, si sabemos que esa tecnología pueden usarla para algo que vaya en contra de nuestros valores”.
Todo muy lindo, pero como ya he mencionado varias veces en este newsletter, no sólo la ONU podría estar haciendo bastante más de lo que hace en aras de generar una tecnología humana y con una mirada social —como por ejemplo en el ámbito bélico—, sino que es una tremenda lavada de manos respecto a la realidad objetiva: las empresas y conglomerados estadounidenses lejos están de ser inocentes respecto del uso de estas tecnologías.
Luego, y a modo de prólogo del panel que venía después, Anchorena hizo una breve presentación en la que resaltó los puntos más importantes de la ley:
El ámbito de aplicación extraterritorial,
La definición de nuevos derechos, nuevas bases legales y protección especial para niñxs y adolescentes,
La inclusión de datos genéticos y biométricos dentro de la categoría de datos sensibles,
Un refuerzo en los montos de las sanciones ajustables de manera automática,
El derecho a oponerse a una decisión automatizada, exigiendo una intervención humana y la transparencia algorítmica (“exhibición de los patrones de programación del algoritmo por el cual se llegó a una decisión”).
Panel: Muchos pensamientos para una sola cosa
Para cerrar, hubo un panel llamado “Diálogos en torno a los desafíos en la protección de datos personales e inteligencia artificial (OSC, Academia y Empresas)”. Diego Fernández, Profesor de la Universidad Torcuato Di Tella; Valeria Milanés, Directora Ejecutiva de la Asociación por los Derechos Civiles y Sofía Scassera, Docente e Investigadora de la Universidad de Tres de Febrero charlaron desde tres puntos de vistas distintos sobre la ley: desde lo legal, lo social y lo económico.
Me pareció especialmente interesante la charla de Scassera, a quien no conocía pero a partir de ahora me declaro fan. “A nivel global se ha permitido un extractivismo desmedido de esta materia prima, que me hace acordar a la plaza del Potosí”, afirmó.
Con una mirada fuertemente basada en la economía, Scassera categorizó a los datos como bienes no rivales: que alguien use esos datos no hace que estos desaparezcan. “Un dato de una persona, recolectado para algo, también puede usarse para otras cosas. Por esto, si los datos se ven sólo con una esfera económica y nada más, empiezan las complicaciones. Fijate el caso de Cambridge Analytica: ¿cuánta guita le podemos sacar a una base de datos, aún si nos pasamos por arriba de la democracia y los derechos?”.
También hizo hincapié en la soberanía en el almacenamiento de los datos: “Tenemos que hacer una política que nos beneficie a todos con los datos, no sólo a quienes los recolectó, y que no se los escondan en paraísos fiscales, porque sino como país nos empezamos a perder de oportunidades de industrializar, porque la materia prima se está yendo a otro lado. Australia por ejemplo entendió que los datos sanitarios de su población tenían que quedar en su territorio. Si se nos van esos datos, se nos van derechos”, concluyó.
A modo de cierre, tuve la oportunidad de preguntarle a Beatriz Anchorena sobre la articulación concreta de políticas para la implementación efectiva de esta ley que parece tan prometedora:
Saber legislar, hacer cumplir
Para cerrar, quiero volver a mencionar que me encanta que se estén empezando a dar estas discusiones en Argentina, y que realmente le tengo muchísima fe a esta ley y me parece una iniciativa absolutamente necesaria en pleno año 2023.
Pero no puedo evitar quedarme con un sabor un poquito agridulce por la falta de muestras concretas de cómo se va a implementar todo esto desde el Estado.
Más allá de si en efecto la ley va a ser sancionada o no —faltan 8 días para las PASO así que estamos en plena época de golpes palaciegos y escenas de Gameofthroneismo explícito—, mis años de trabajador público me han mostrado que tenemos leyes de absoluta vanguardia pero que tienen un cumplimiento casi imposible con el bajísimo financiamiento que existe en el área científico-tecnológico.
Existe una asimetría de poder muy grande entre los Estados y el sector privado en términos de capacidades técnicas y humanas de realmente entender e intervenir sobre lo que está sucediendo en el terreno de los datos, algoritmos y tecnologías aledañas.
Ojalá que esta ley sirva para seguir generando una discusión seria sobre cómo hacer que los datos contribuyan al bien público y a generar el bienestar colectivo, y no el de un mercado que lucra a partir de la extracción appificada de nuestro propio tiempo y vida digital.
Pero una ley es tan buena como la capacidad del Estado de hacerla cumplir. Por eso es importante que este sea además un paso para dejar bien en claro la importancia no sólo de que el Estado sea parte de la discusión —de esta y de otras tantas—, sino también de que le de a sus trabajadorxs las condiciones laborales y técnicas dignas en un marco de creciente precarización y ajuste marcado por las metas macroeconómicas que nos fueron impuestas.
¡Hasta la próxima!
Como siempre, gracias por haber llegado hasta acá. Para descontracturar, los links de siempre:
Kickstarter anunció una nueva política en la que lxs creadores que usen IA en sus propuestas deberán declararlo de antemano. Podés leer un poco más acá.
Tengo en carpeta una nota sobre todo el derrotero de Twitter/X/comoElonMuskquierallamarla, pero por lo pronto, me parece fabuloso que ahora la app te de la opción de pagar por una verificación pero también para ocultarla de forma tal que no te hagan bullying.
Si estás cansado de Cristina Pérez o del Gato Sylvestre, te tengo buenas noticias (pun not intended): la cadena india Odisha TV dio a conocer a “Lisa”, su primera presentadora virtual hecha con IA. Acá podés ver más.