Regular un uso de la Inteligencia Artificial responsable

Esta semana se publicó la propuesta de la Unión Europea para regular el uso de la Inteligencia Artificial (IA). Desde ya que la sola tarea es inconmensurable. No porque sea dificil de regular, que lo es, pero porque es una industria que crece exponencialmente y que su aplicación está cada día más extendida en nuevos campos. Y eso es también lo que hace necesaria su regulación, especialmente para una región que es extremadamente cautelosa ante las nuevas amenazas. Tanto, que a veces es contraproducente. Y sin meterme en el texto, una novedad que trae es el esfuerzo por intentar regular al mismo tiempo que dar apoyo a las empresas e investigadores que buscan desarrollar nuevos negocios y soluciones.

TL;DR

  • Se propone una escala de riesgo, la cual incluye un listado de actividades prohibidas y otra de alto riesgo que se debe seguir de cerca.
  • Se hace especial foco en los servicios de seguimiento biométrico en tiempo real y vigilancia; prohibiendo su uso extendido, pero exceptuado para ciertos casos.
  • El listado de aplicaciones de alto riesgo son aquellas que afectan a los derechos fundamentales de la Unión, y si bien se listan algunos, se promete actualizar.
  • Como el GDPR aplica tanto a las empresas y organizaciones radicadas en Europa como aquellas de terceros países que intercambien información con empresas dentro de la Unión o que almacenen datos de ciudadanos Europeos.
  • El incumplimiento de la regulación impondrá sanciones graves.
  • Se creará el European Artificial Intelligence Board para promover la cooperación entre los Estados Miembros.

Sigue leyendo

Comunicar, entender y emancipar: hablando de ciudades y algoritmos

algorithmic societies

En febrero de 2020 asistí a la conferencia FaccT (Fairness, Accountability and Transparency) sobre Inteligencia Artificial y ética. Una conferencia que es sponsoreada por ACM, y que se originó desde la disciplina de las ciencias de la computación. Sin embargo, cada año hay más presencia de las ciencias sociales, y también, grupos de activistas que buscan representación y diversidad en el campo.

Es un problema sabido que la mayoría en el mundo tecnológico son hombres occidentales y blancos, especialmente en cargos de dirección. El problema es que el desarrollo de tecnología por un grupo mayoritariamente privilegiado, diseña mundos para personas con los mismos privilegios. Sin embargo, dentro de las empresas y en la academia hay grupos que luchan por la representación de mujeres, de diferentes etnias y de los grupos LGTBI+. Notable fue el caso en los últimos meses cuando Google ha despedido a Timnit Gebru una de las referentes en esta lucha por haber investigado lo poco ético que es el desarrollo de la nube en el contexto del cambio climático.

Ya es numerosa la cantidad de publicaciones científicas y conferencias que dan cuenta de los sesgos presentes en las tecnologías y algoritmos que se desarrollan. En su mayoría se debe a que quienes se encuentran en situación de privilegio tienen ideas preconcebidas que no les permite ver que su creación tiende a discriminar y reproducir los mismos privilegios.

Si bien existen grupos y organizaciones que luchan por visibilizar este problema. Muchos de estos existen en el mundo angloparlante. Otra observación es que mucho del vocabulario y del conocimiento técnico mencionado no es fácil de entender para la mayoría de las personas sin conocimientos previos en informática y en estadística.

Ese fue el problema que detecté al asistir a la conferencia y que intenté dar una respuesta. Para ello, recordé la fórmula utilizada cuando creamos CityCamp, para debatir problemas urbanos que no eran de conocimiento del público en general.

La fórmula tiene como principio que el conocimiento existe, y circula mejor si las personas pueden intercambiar su conocimiento conversando al mismo nivel, de persona a persona. En un espacio abierto, con la disponibilidad de infraestructura y tiempo, el aprendizaje ayudaría a emancipar a aquellos que no saben pero quieren saber, y puede acercar a aquellos que saben pero no saben cómo llegar al resto de la población.

Esta dinámica no solo tendría un efecto educacional, sino también sinérgico, generando potenciales equipos de trabajo, compartiendo intereses, descubriendo nuevos caminos para resolver estos problemas, desde el conocimiento experto y el conocimiento vernacular.

El ingrediente secreto es que todos deben estar al mismo nivel, ya que todos tienen un conocimiento para compartir. En definitiva, la causa y su efecto suele encontrarse en las mismas dinámicas sociales y de privilegio, que se vuelven una zona de confort, reproduciendo un status quo. Por lo tanto, si se logra romper, genera nuevas oportunidades de aprendizaje.

Estas ideas vienen de aprendizajes propios adquiridos en la época de participar durante muchos años en eventos como Trimarchi o PechaKucha (2009-2013), y la filosofía emancipadora de Clandestina Weekend Nerd basada en el filósofo Jacques Rancière.

Con la idea de repetir la fórmula en un contexto diferente nació Algorithmic Societies (AS). El objetivo que dio origen a AS es el de generar encuentros y espacios para acercar el conocimiento de la Inteligencia Artificial y los problemas presentes en el desarrollo de los algoritmos. Buscar acercar a creadores de algoritmos, a desarrolladores, y a los grupos afectados que viven entre ellos. Prácticamente toda la sociedad, pero en particular aquellos que se ven afectados por la discriminación implícita de dichos algoritmos.

Sin embargo, en marzo de 2020, con la covid-19 convertida en pandemia, la idea de encuentros físicos se vio accidentalmente coartada. Si bien muchas conferencias y encuentros pasaron a ser de forma virtual, mediante plataformas como Zoom o Google Meet, para que la fórmula funcione, el contacto físico es primordial.
Esto es porque la mediación de medios tecnológicos facilita mantener una distancia, y ayuda negativamente, a mantener las formas de confort.

Por lo tanto debíamos experimentar con otro formato, y estacionar la idea de los encuentros. Teníamos a mano el tiempo de la cuarentena, y la tecnología. El problema inicial de hablar sobre algoritmos e Inteligencia Artificial es que, para la mayoría de las personas, es un mito. Hablar de AI es hablar de ciencia ficción, de algo que tiene entidad pero es inaccesible. Teníamos que aprovechar el tiempo para desmitificar, para desgranar la AI e intentar hablar de ella de forma que todo el mundo entienda sus partes, sus procesos, y los mecanismos sociales que la hacen posible.

Es por eso que en septiembre de 2020, con Lucia Errandonea, surgió la idea de hacer un canal de Youtube. “De datos, algoritmos y otros cuentos” es un proceso experimental en donde intentamos comunicar los diversos aspectos de la AI, dando ejemplos y explorando sus implicancias.

Al día de hoy llevamos 10 videos y un centenar de seguidores. Sabemos que no es la panacea, y que existen miles de videos en internet explicando cosas similares. Encontrar el público, y la forma de comunicar algo complejo no es tarea sencilla. Tampoco es intentar simplificar conocimientos que por defecto son difíciles de explicar. Ni hablar de que la gente está sobrecargada de contenido para ver.

No esperamos que estos contenidos sean famosos por nosotros, sino que sean un repositorio de conocimiento para que pueda ser consultado de aquí al futuro. Queremos que las mentes curiosas puedan entender y que sientan cierta seguridad para conversar y problematizar lo que se dice acerca de la AI.

Sé que uno de los mayores problemas actuales es la desinformación. Los medios de difusión y periodísticos, tienden a acelerar la mitopoiesis (convertir en mito) los efectos de la AI porque suele ser redituable hablar de aquellos futuros posibles, temas hot-topic y generar ansiedad. Tanto de las promesas para “salvar” al mundo, como aquellas que nos “condenan”, son la fuente de la creación de los mitos.

Pero los algoritmos no son seres mitológicos, son líneas de código y fórmulas, usan datos reales, históricos, que reproducen los comportamientos desiguales de la sociedad. Es algo mucho más real que viajar a marte o alimentarnos de insectos. Lamentablemente, entra en la categoría de la ficción muy rápidamente y la ignorancia de muchos periodistas reproducen estas ideas sin conocer sus consecuencias.

Por otro lado, las empresas y gobiernos hablan de ética en la IA como si fueran reglas que deben ser aplicadas sobre los algoritmos. Se habla de “ethicwashing” de los algoritmos tal como se habla de “greenwashing” cuando las empresas dicen cuidar el medioambiente pero es solo una estrategia de marketing. Cada día vemos más de este tipo de estrategias en las que las personas creen ciegamente en que las medidas tomadas para paliar los efectos de los algoritmos son suficientes, cuando no lo son.

Esto es porque los algoritmos no son herramientas neutras, sino son mecanismos socio-tecnicos que tienen mucho que ver en quien, como, donde y cuando se implementan, sobre quien actuan y cómo se controlan. En este sentido, la auditoría de algoritmos aparece como una solución intermedia para fomentar la gobernanza de estos algoritmos. Sin embargo, estas auditorias tampoco son una solución definitiva, sino que se convierte en una mayor burocracia, con mayor costo y complejidad asociada.

Desde Algorithmic Societies creemos que las sociedades conviven con algoritmos, y esto da la oportunidad de discutir y disputar la formación de nuevas formas de organización social. Para ello es necesario que los individuos puedan emanciparse, desmitificar y pensar por ellos mismos, cómo les afecta y qué rol pueden tomar en estas nuevas sociedades para participar activamente.

Los invito a seguir el canal y abrir la conversación. Esperamos que en 2021 o 2022 podamos reiniciar la idea de los encuentros, o bien, que esto se transforme en nuevas formas de expandir el conocimiento.

Les dejo un primer video introductorio y los invito a explorar el canal, así como seguirnos en instagram.