miércoles, 23 de marzo de 2022

La prohibición del uso de la IA en la publicidad


El pasado 9 de marzo, Odiseia organizó una sesión sobre privacidad, protección de datos e inteligencia artificial. En la misma se abordó la necesidad de realizar un control y/o tratamiento de los datos utilizados para alimentar los procesos de inteligencia artificial (IA) como forma de asegurar la privacidad y evitar riesgos indeseados.

Cabe recordar que la Comisión Europea ha realizado una propuesta de reglamento donde se prohíbe el uso de estas técnicas en ciertos ámbitos, mientras que en otros viene a establecer una serie de garantías y obligaciones según se clasifiquen el riesgo como alto (suponen un alto riesgo para los derechos  libertades de los individuos), limitado (donde se imponen ciertas obligaciones específicas de transparencia y se incluirían  los asistentes virtuales o chatbot) o con ningún riesgo (sin obligaciones jurídicas adicionales). 

Los sistemas de IA prohibidos son aquellos sistemas relacionados con la calificación social por parte del Gobierno, conocidos como "social scoring", con el uso de sistemas de vigilancia biométrica masiva en espacios públicos (con excepciones para las Fuerzas y Cuerpos de Seguridad del Estado) o aquellos que utilizan "técnicas subliminales" para eludir la voluntad de los usuarios "y distorsionar materialmente el comportamiento de una persona de una manera que pueda causarle daño físico o psicológico". 

Así, en la sesión se habló de anonimización o pseudoanomización como forma de ocultar a la persona origen de esos datos, proceso tras el cual, la ya IA puede "ofrecer sus servicios" casi sin condicionantes. Sorprendentemente, y sin entrar a valorar en ningún caso las categorías propuestas por el reglamento europeo, el debate se orientó desde un punto vista estrictamente técnico y con una aproximación de responsabilidad individual. Por un lado, si no existe la manera de conocer a qué persona se le puede asociar un conjunto de datos concretos (aseveración que ya de por sí no hay que darla como cierta a la luz de ciertos trabajos de investigación), ¿qué peligro hay en utilizar la IA?, ¿por qué tienen que existir ámbitos convencionales donde se debe restringir el uso de técnicas de IA?. Y por otro, deben ser los desarrolladores los que tienen que incorporar una visión social del impacto de sus productos a la luz de los efectos que producen en su aplicación. 

Esa visión tecnocentrista y liberal obvia la experiencia de acumulada en miles de años de evolución social del ser humano. Desde que el hombre abandonó sus prácticas como cazador-recolector y pasó a asentarse en un territorio concreto, provocando la especialización del trabajo, la acumulación de excedentes y riqueza, hemos compartido un espacio común donde la aportación de cada individuo, con independencia de su posición social, contribuía a la creación de un espacio común donde se multiplican el valor de esas aportaciones individuales, construyendo redes de colaboración y protección conjuntas que posibilitaban el progreso, tanto en forma de innovación como escudo protector ante amenazas externas. 

Ser miembro de una sociedad implica que a partir del trabajo individual y del compromiso colectivo, se participa y colabora en su desarrollo. Para ello, la propia convivencia en el mismo espacio físico hace patente la existencia de otros colectivos con los que empatizas y sobre todo, simpatizas, interiorizando, o así debería ser, que la secesión, ya sea individual o de un colectivo concreto, nos hará individualmente más débiles. Nuestro actual bienestar le debe más de lo que queremos reconocer a nuestras fiestas populares, acontecimientos deportivos y mercados de abastos, donde nos juntamos tirios y troyanos. El roce hace el cariño, que se diría de forma más prosaica.

Sin embargo, la utilización de técnicas de IA en ciertos ámbitos provoca tal personalización de la "experiencia de usuario" que nos impele a percibir la realidad desde esa única perspectiva que construye la IA. Es algo más que las famosas cámaras de eco donde solo escuchamos aquellos argumentos con los que estamos de acuerdo. Se trata de conceptualizar el mundo a través de un forma unidimensional y construida por los hábitos de consumo, entendido este de la forma más amplia posible.

A mi juicio, la segmentación como forma de ofrecer un producto, comunicaciones comerciales o servicios personalizados (donde por supuesto incluyo a las redes sociales), al crear universos personalizados, minimiza el sentimiento de pertenencia a una sociedad diversa y plural, poniendo en peligro la misma esencia de la democracia como proyecto compartido donde "el todo es mayor la suma de las partes". Ni siquiera con el consentimiento de los afectados se debería permitir el tratamiento de datos personales en sectores que contribuyen a crear el ágora pública. Sin embargo, el enorme peso de la economía del dato y la fantasía de que la publicidad dirigida tiene mucho mayor retorno de la inversión que la convencional, sin reparar en que los indicadores están adulterados por la miriada de bots que pueblan el universo digital, así como en que las métricas ofrecidas tienen una confección poco transparente a cargo del oligopolio donde acaba el 70% de la inversión publicitaria. Poco podemos esperar en ese sentido cuando incluso en la publicidad electoral la Comisión propone permitir el uso de datos que incluyan el origen étnico, las creencias religiosas o la orientación sexual si existe el previo consentimiento expreso de la persona interesada.

Como en muchos otros órdenes, no existen soluciones individuales a problemas colectivos. La democracia se construye a través de la agregación de las aspiraciones de todos los ciudadanos. Y el respeto de los derechos individuales de cada uno de nosotros se complementa con la creación de un entorno donde existen una serie de valores compartidos a preservar y que sin ellos no existirá la posibilidad de respetar ni ejercer de forma efectiva los derechosa individuales de las personas. 

Desde un punto de vista más formal podríamos incluir en el debate de la academia la necesidad de que los comportamientos sociales modelados a través de la agregación de nuestros comportamientos individuales no pudieran ser utilizados en sistemas de IA a los efectos de ofrecer productos, servicios o comunicaciones comerciales. Sin embargo, para una mejor comunicación de la propuesta bastaría con decir que es imprescindible ampliar los ámbitos donde debería prohibirse el uso de técnicas de IA a aquellos ámbitos que conforman el espacio público como las comunicaciones comerciales, las redes sociales, ... 

Simplemente, nos jugamos la democracia

 

 


No hay comentarios:

Publicar un comentario