Una buena noticia

23/06/23

vicent botti

Director Instituto Universitario Valenciano de Investigación en Inteligencia Artificial – Universitat Politècnica de València (VRAIN-UPV)
Director General de la Escuela Valenciana de Posgrado y Red de Investigación en Inteligencia Artificial (valgrAI)

El avance tecnológico en el campo de la inteligencia artificial ha convertido esta disciplina en una de las más relevantes del siglo XXI. Gracias al aumento en la capacidad de cálculo de los ordenadores, la accesibilidad a través de internet y los progresos en los algoritmos, la IA está transformando nuestro mundo de manera similar a como lo hicieron la máquina de vapor y la electricidad en su momento. Esta tecnología ofrece numerosas ventajas, especialmente en el ámbito de la salud, donde puede mejorar los diagnósticos de imágenes médicas utilizando modelos de IA entrenados con grandes conjuntos de datos. Asimismo, la aplicación de la IA puede contribuir a la mejora de productos, procesos y modelos de negocio en diversos sectores económicos y servicios públicos. La IA nos brinda la oportunidad de abordar importantes desafíos actuales, como el desarrollo de terapias para enfermedades sin tratamiento, la optimización del consumo de energía, la reducción del uso de plaguicidas para un medio ambiente más limpio, la mejora de la predicción meteorológica y la anticipación de desastres. Conseguir ciudades más sostenibles y amigables. Estos son solo algunos ejemplos de los beneficios que la IA puede proporcionar a la sociedad.

Aunque la IA ofrece múltiples beneficios, es innegable que también conlleva riesgos evidentes, como la desinformación, el plagio, la reproducción involuntaria de contenidos ofensivos o discriminatorios, y la falta de veracidad o de verdad básica. Los trabajadores temen perder sus empleos debido a la automatización, los consumidores se preguntan quién asume la responsabilidad cuando un sistema basado en IA toma decisiones equivocadas, y las pequeñas empresas tienen dificultades para aplicar la IA a sus negocios. Además, las nuevas empresas de IA enfrentan desafíos para encontrar los recursos y el talento necesarios en Europa, dado el aumento de la competencia internacional. Si no se abordan con éxito estas cuestiones, existe el riesgo de comprometer la confianza de los ciudadanos en el verdadero potencial de esta nueva tecnología.

Por lo tanto, es imprescindible establecer regulaciones que prevengan los riesgos derivados del mal uso de la tecnología, incluyendo la IA en particular. En mi opinión, estas regulaciones deben prevenir el mal uso de la IA, sin limitar su aplicación y desarrollo en los casos en los que sus beneficios para la sociedad sean evidentes, que son la mayoría. No deberíamos restringir innecesariamente su avance, sino más bien imponer penalizaciones a aquellos que utilicen la IA de manera incorrecta.

Por ello el nuevo Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de Inteligencia Artificial (Ley de Inteligencia Artificial) y se modifican determinados actos legislativos de la Unión” es una buena noticia.

Hace muchos años que las personas que trabajamos en IA estamos manifestando la necesidad de regular el mal uso de la tecnología porque, tal como anteriormente se menciona, los riesgos son evidentes, por ello creo que debemos recibir con esperanza esta propuesta de ‘Ley de Inteligencia Artificial’. Sin embargo, una lectura rápida de la misma -se trata de un documento de 119 páginas y sus correspondientes anexos- suscita dudas, en un experto en IA, pero lego en leyes, si bien no soy capaz de evaluar el resultado de la presente normativa; tendremos que esperar a ver cómo se desarrolla e implementa en los diversos estados. Sirva como muestra de este argumento las dos siguientes citas literales de la Ley.

Tal como se recoge literalmente en el reglamento:
Por este motivo, se necesita un marco jurídico de la Unión que defina unas normas armonizadas en materia de inteligencia artificial orientadas a impulsar el desarrollo, la utilización y la adopción en el mercado interior de la inteligencia artificial y que, al mismo tiempo, ofrezca un nivel elevado de protección de los intereses públicos, como la salud y la seguridad, y de los derechos fundamentales reconocidos y protegidos por el Derecho de la Unión”.
Esto es un buen planteamiento, pues se habla de “impulsar el desarrollo …” y “protección de los intereses públicos …”. Esperemos que se consiga este equilibrio.
Sin embargo, en los anexos se recoge como sistema de alto riesgo (literalmente): “Sistemas de IA destinados a utilizarse para el envío o el establecimiento de prioridades en el envío de servicios de primera intervención en situaciones de emergencia, por ejemplo bomberos y servicios de asistencia médica

Puede considerarse cuestionable que una aplicación de IA que optimice la asignación de recursos, por ejemplo, ambulancias, ante una urgencia, teniendo en cuenta criterios de proximidad, densidad de tráfico, adecuación de los recursos médicos de la ambulancia a la urgencia,… se considere de alto riesgo. Por ello, es evidente que necesitamos leer con más detalle esta ley y ver cómo se desarrolla antes de emitir un juicio, pero en cualquier caso es una muy buena noticia la aparición de este reglamento, ya que es un primer paso para empezar a andar hacía la solución de un problema que hace tiempo que habíamos identificado.

Es evidente que tendremos que buscar un equilibrio entre una regulación que prevenga el mal uso de la IA y la no disminución de la competitividad en IA de la Unión Europea. A nivel internacional el desarrollo e implantación de la IA se produce en un entorno de competencia que en los últimos tiempos adquiere tintes claramente geopolíticos, nos encontramos en un contexto asimétrico en el que la Unión Europea va por detrás de Estados Unidos o China, donde las inversiones son muy superiores y donde los requisitos jurídicos exigibles a las tecnologías de la información y las comunicaciones son mucho más laxos. Por ello es importante, aunque muy difícil, encontrar el equilibrio entre competitividad y garantías de no utilizar mal la tecnología.

Cómo dice mi compañero y amigo Ricard Martínez -el sí que es experto en leyes- en su artículo ¿Y si paramos de romper las cosas con la IA? en ‘Agenda Pública del País’ para abordar este problema: ‘Se requiere por tanto de una legalidad internacional y europea capaces de encauzar el diseño y uso de la Inteligencia Artificial y junto a ella un conjunto de políticas sociales que garanticen que en esta revolución no sacrificaremos a los más débiles, ni seguiremos forzando las reglas, ni menoscabaremos los recursos del Estado y las libertades públicas’.

Con el fin de abordar estos desafíos y aprovechar al máximo las oportunidades que la IA ofrece, surgió hace años la noción de Inteligencia Artificial Responsable. Se trata de una IA confiable que se fundamenta en valores éticos y sociales, tomando como base la Carta de los Derechos Fundamentales y poniendo un enfoque central en el ser humano. Un principio clave es la «ética en el diseño», que implica la aplicación de principios éticos y jurídicos desde el inicio del proceso de diseño, basándose en el Reglamento General de Protección de Datos y cumpliendo con la legislación en materia de competencia, además de garantizar la ausencia de sesgos en los datos. Al definir los requisitos de los sistemas de IA, es igualmente importante considerar las interacciones entre los seres humanos y los sistemas de IA. Otro principio fundamental es la «seguridad desde el diseño», que garantiza la ciberseguridad, la protección de las víctimas y la facilitación de la aplicación de la ley desde las primeras etapas del proceso de diseño. Sin olvidar la necesidad de métodos que permitan la evaluación de las aplicaciones de la IA.

Con esta ley se da un primer paso a una de las demandas que desde el mundo de la IA se lleva tiempo reclamando. Por lo tanto: bienvenida ‘Ley de Inteligencia Artificial’.

upv innovacion negro