Regular un uso de la Inteligencia Artificial responsable

Esta semana se publicó la propuesta de la Unión Europea para regular el uso de la Inteligencia Artificial (IA). Desde ya que la sola tarea es inconmensurable. No porque sea dificil de regular, que lo es, pero porque es una industria que crece exponencialmente y que su aplicación está cada día más extendida en nuevos campos. Y eso es también lo que hace necesaria su regulación, especialmente para una región que es extremadamente cautelosa ante las nuevas amenazas. Tanto, que a veces es contraproducente. Y sin meterme en el texto, una novedad que trae es el esfuerzo por intentar regular al mismo tiempo que dar apoyo a las empresas e investigadores que buscan desarrollar nuevos negocios y soluciones.

TL;DR

  • Se propone una escala de riesgo, la cual incluye un listado de actividades prohibidas y otra de alto riesgo que se debe seguir de cerca.
  • Se hace especial foco en los servicios de seguimiento biométrico en tiempo real y vigilancia; prohibiendo su uso extendido, pero exceptuado para ciertos casos.
  • El listado de aplicaciones de alto riesgo son aquellas que afectan a los derechos fundamentales de la Unión, y si bien se listan algunos, se promete actualizar.
  • Como el GDPR aplica tanto a las empresas y organizaciones radicadas en Europa como aquellas de terceros países que intercambien información con empresas dentro de la Unión o que almacenen datos de ciudadanos Europeos.
  • El incumplimiento de la regulación impondrá sanciones graves.
  • Se creará el European Artificial Intelligence Board para promover la cooperación entre los Estados Miembros.

Sigue leyendo