La inteligencia artificial ya está dentro de nosotros, incluso si todavía no sabemos qué hacer con ella. Las docenas de cómics y películas de ciencia ficción que hemos visto en máquinas controladas por humanos pueden haber eclipsado un poco nuestra comprensión, pero los riesgos que ven sus autores siguen siendo muy reales.
Hay dos pruebas convincentes: la inteligencia artificial (IA) se puede utilizar con fines poco éticos. Su crecimiento fue imparable. La inteligencia artificial en la Unión Europea está ya trabajando, aunque tal vez le hayan faltado reflejos para meterse antes en harina.
También te puede interesar ????: Analítica de video con inteligencia artificial
El pasado mes de abril, la Comisión Europea presentó un informe de 81 páginas que proponía una regulación sobre la inteligencia artificial y sus aplicaciones. El documento, elaborado con el objetivo de proteger los derechos y valores fundamentales que promueve la Unión Europea, se centra sobre todo en gestionar lo que describe como un sistema de IA de «alto riesgo».
Asimismo, el texto formaliza la creación del Consejo Europeo de Inteligencia Artificial. Este organismo está formado por un representante de cada país de la Unión Europea y un miembro de la Comisión Europea. Su mandato será asesorar en la creación de una legislación europea capaz de conciliar dos objetivos estratégicos.
Por otro lado, la Unión Europea no ha perdido la locomotora de la innovación tecnológica que ha destinado cerca de 20.000 millones de euros a la transformación digital de la economía, convirtiéndose así en una potencia secundaria a China o Estados Unidos, y por otro lado, impidiendo el continente a partir de tecnologías que contradicen los valores democráticos y el respeto a los derechos humanos. Realmente es un campo de minas siniestro.
Aunque excluye tecnologías para uso militar, sugiere vetar los sistemas de reconocimiento facial con fines de vigilancia y algoritmos que «manipulan el comportamiento humano». También se incluyen en la lista negra los sistemas de registro social, que están plenamente adoptados en China, que evalúan el comportamiento de los ciudadanos y establecen recompensas y castigos en función de su comportamiento. También se sugiere prohibir las tecnologías que utilizan datos o predicciones sobre el comportamiento de personas o grupos para explotar y aprovechar sus vulnerabilidades.
Además de tecnologías específicas, la Unión Europea tiene la intención de prohibir actividades que entren en conflicto con los valores institucionales. El documento cita, por ejemplo, «vigilancia ciega» o «seguimiento y monitoreo de personas en un entorno digital o físico». Para hacer cumplir esta prohibición, el informe recomienda multas «efectivas, proporcionadas e inapropiadas» de hasta el 4% de los ingresos corporativos anuales en violación.
El desarrollo de inteligencia artificial en la Unión Europea
La gran pregunta es si es posible y realista vetar el desarrollo de inteligencia artificial en la Unión Europea. Hasta ahora, se ha dado el primer paso en esta dirección. A principios de octubre, el Parlamento Europeo decidió por mayoría absoluta prohibir el uso de sistemas de reconocimiento facial en lugares públicos.
Pero los de adentro lo ven de otra manera. Pew Research Center, una organización de consultoría con sede en Washington, publicó un poderoso informe esta primavera sobre la percepción de la industria de la inteligencia artificial en la Unión Europea, sobre los caminos que tomará en los próximos años. El material, además de amplias referencias, se basa en entrevistas a 602 personas familiarizadas con el campo: programadores, emprendedores, ingenieros, profesionales de TI e inversores.
En total, el 68% de los encuestados cree que el diseño ético de la IA centrado en el bien común no será posible en la próxima década. La gran mayoría de los encuestados cree que para 2030, la inteligencia artificial continuará enfocándose en maximizar las ganancias corporativas y desarrollar herramientas de control social.
Si sus expectativas se hacen realidad, ¿la Unión Europea se mantendrá alejada de la innovación en IA, capaz de promover el desarrollo de tecnologías que respeten los valores de esta institución? El Código de Ética y Conducta de AI, adoptado por el Parlamento Europeo en 2017, se basa en ocho principios, incluido el respeto por la libertad y la privacidad humana o el derecho a la igualdad de acceso a AI.
¿La política de la Unión Europea sobre inteligencia artificial se convertirá en letra muerta, retrocederá y adoptará sistemas de registro social o reconocimiento facial? La pregunta debe continuar en los próximos años.