Entre el 10 y el 11 de febrero, París ha acogido la celebración de la AI Action Summit, que ha dejado algunos titulares efímeros pero que parece no haber sido analizada con el detenimiento y la atención que merece. Con estas diez notas, desde el Observatorio Sector Público -Inteligencia Artificial (OSPIA) pretendemos aportar una visión amplia y global sobre esta importante cumbre recién concluida en París.
En los últimos años, el vertiginoso avance de la inteligencia artificial (IA) ha transformado la forma en que vivimos, trabajamos y entendemos el mundo. Desde asistentes virtuales que organizan nuestras agendas hasta algoritmos que predicen patrones complejos en la economía o la medicina, la IA se ha integrado profundamente en nuestras vidas. Sin embargo, este desarrollo plantea una cuestión esencial: ¿qué papel jugamos los seres humanos en la alimentación y crecimiento de estos sistemas? La relación entre los sistemas de IA y quienes los alimentan es compleja, multifacética y cargada de dilemas éticos.
“Datos bebés”: el poder oculto de la información en la era de la inteligencia artificial y el Big Data
Según el Reglamento General de Protección de Datos, la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales y así como ha indicado reiteradamente la Agencia Española de Protección de Datos, un dato de carácter personal es cualquier información que identifica o puede identificar directa o indirectamente a una persona física. A título de ejemplo: nombre y apellidos, DNI, NIE, pasaporte, dirección de correo electrónico, si es personal, dirección postal, dirección IP, número de teléfono, origen étnico o racial, opiniones políticas, creencias religiosas o filosóficas, datos de salud, datos biométricos o genéticos, orientación sexual y un largo etc.
El uso de algoritmos en el sector público tiene muchos entusiastas, pero también sus críticos y detractores, a menudo no tan visibles. En OSPIA LAB ya se han comentado diversos episodios de fallos y errores graves en el uso de estas herramientas para combatir el fraude en la percepción de ayudas públicas de carácter social, criminalizando a personas inocentes y arruinando vidas concretas, perjudicando de manera muy seria a personas y familias honestas señaladas por un exceso de celo administrativo y un exceso de sesgos algorítmicos contra determinadas razas, barrios y orígenes sociales. Todos los episodios narrados tienen un denominador común: los algoritmos fallan y se equivocan contra los más vulnerables, y en el debate público global sobre el uso de las más modernas herramientas tecnológicas para combatir el fraude cada vez más personas nos preguntamos por qué no se pone el mismo empeño tecnológico en combatir el fraude fiscal a gran escala, el blanqueo de capitales o los movimientos multimillonarios de dinero negro.
El 14 de octubre de 2020, cinco importantes instituciones europeas de control externo -las de Alemania, Finlandia, Holanda, Noruega y el Reino Unido- publicaron un documento conjunto de enorme interés e importancia para la fiscalización de las decisiones públicas basadas en el uso de algoritmos. En efecto, Auditing machine learning algorithms. A White paper for public auditors se convirtió en una guía básica de referencia para ayudar a este tipo de instituciones a llevar a cabo auditorías de algoritmos basados en machine learning que estén siendo utilizados por las agencias gubernamentales y el sector público.
por Víctor Almonacid Lamelas. Directivo público profesional y Letrado experto en Derecho digital. Miembro de OSPIA.
1.Definición.
Un Gemelo Digital es una réplica virtual de un ente físico que utiliza los datos en tiempo real enviados por los sensores del objeto, a fin simular su comportamiento en situaciones reales y ensayar diferentes situaciones. Por su parte, el llamado Gemelo Digital Urbano (GDU), también conocido como Urban Digital Twin, representa un avance significativoen la gestión y planificación urbana al proporcionar un modelo digital preciso y en tiempo real de un municipio (normalmente una ciudad).
Comienza un nuevo curso político, académico y administrativo, lo que supone un momento de oportunidad para analizar las recientes novedades de carácter legislativo y administrativo relacionadas con el uso de la Inteligencia Artificial (IA) en el sector público, en sintonía con los fines y objetivos del Observatorio Sector Público e Inteligencia Artificial (OSPIA).
Profa. de Derecho Administrativo y Derecho de las Telecomunicaciones y de las Nuevas Tecnologías. Centro de Estudios Universitarios “Cardenal Spínola” CEU (Centro adscrito a la Universidad de Sevilla). Fundación San Pablo Andalucía CEU
“We are thrilled to host the world’s first AI Safety Summit at Bletchley Park (...) As a site that has witnessed the power of human intelligence, emerging technology and collaboration, we recognise the importance of ensuring that AI technology is developed and deployed in a safe and ethical manner" . Iain Standen, CEO of the Bletchley Park Trust
Debemos sumar un nuevo hito en el camino hacia la regulación del desarrollo de la Inteligencia Artificial (IA): la Declaración de Bletchley[1]. Ese hito tiene nombre propio -Bletchley-, una fecha en el calendario señalada como histórica -el 1 de noviembre- por ser la primera cumbre mundial sobre seguridad en torno a la (IA), y como protagonistas a 29 firmantes como Estados Unidos, la Unión Europea (UE), Inglaterra -como país anfitrión-, China, Japón, Kenia, Nigeria, India, Australia, Emiratos Árabes y Chile, entre otros.