Hora de regular la inteligencia artificial

Google alerta de las consecuencias negativas de la tecnología, desde falsificaciones a usos nefastos del reconocimiento facial. La UE invertirá 20.000 millones en IA hasta el año 2027


Redacción / La Voz

La inteligencia artificial (IA) es una de las áreas tecnológicas que tendrán más evolución en el 2020. Según un informe de la consultora Altia, «la adopción de la IA por parte de la industria es un must, y las administraciones públicas impulsarán el desarrollo de la misma en sus regiones para no quedarse tecnológica y económicamente atrasadas» respecto a potencias como China o EE. UU. La UE prevé invertir anualmente 20.000 millones de euros hasta el 2027 para el desarrollo de la inteligencia artificial.

De acuerdo con dicho estudio, las claves que se deberán impulsar en esta área en los próximos años son dos: la inclusión de la IA en el sistema educativo y la capacitación de profesionales en técnicas necesarias para implementar estas tecnologías, incluyendo la formación a capas directivas; y la puesta a disposición de universidades e industria TIC del big data por parte de las administraciones, permitiendo así el desarrollo de nuevos servicios (sanitarios, energéticos, transporte...). «Sin (big) datos no hay deep IA», señalan los expertos. 

Precisamente, el presidente de Google y su matriz Alphabet, Sundar Pichai, expresó esta semana la necesidad de regular la inteligencia artificial. «Las empresas no pueden simplemente crear nuevas tecnologías y dejar que las fuerzas del mercado decidan cómo utilizarlas», afirmó. Pichai se refirió a tres ejemplos concretos de cómo su compañía está aprovechando el potencial de la IA. La revista Nature ha publicado una investigación que muestra que un modelo de inteligencia artificial puede ayudar a los médicos a detectar con mayor precisión el cáncer de mama en las mamografías; Google usa la IA para hacer pronósticos de lluvia inmediatos e hiperlocales de manera más rápida y precisa que con los modelos existentes, como parte de un conjunto más amplio de herramientas para combatir el cambio climático; y el grupo Lufthansa está trabajando con la división cloud de la empresa del buscador para probar el uso de la IA para reducir los retrasos en los vuelos.

«Sin embargo, la historia está llena de ejemplos de cómo en las tecnologías no todo son virtudes -advierte Sundar Pichai-. Los motores de combustión interna nos han permitido viajar, pero también han provocado más accidentes. Internet hace posible conectarse con cualquier persona y obtener información desde cualquier lugar, pero también facilita la difusión de información errónea».

Por este motivo, el CEO de Google recomienda tener los ojos bien abiertos ante lo que podría salir mal. Existen preocupaciones reales sobre las posibles consecuencias negativas de la IA, desde falsificaciones profundas hasta usos nefastos del reconocimiento facial. «Si bien ya se está trabajando para abordar estos peligros, inevitablemente nos esperan nuevos desafíos, a los que ninguna empresa o industria podrá hacer frente por sí sola», reconoce.

La UE y los Estados Unidos ya están comenzando a desarrollar algunas propuestas de regulación y la coordinación a nivel internacional será fundamental para que las normas sean efectivas en todo el mundo. Para alcanzar este objetivo se necesita un acuerdo sobre los valores fundamentales.

Vigilancia masiva

Google ya publicó en el 2018 sus propios principios de IA para orientar hacia la ética el desarrollo y el uso de la tecnología. Estas pautas, entre otras cosas, definen las áreas en las que se compromete a no diseñar ni implementar la inteligencia artificial, como cuando esta se pueda utilizar para la vigilancia masiva o la violación de los derechos humanos. Un ejemplo serían las recientes informaciones sobre el uso que hace China de las imágenes de las redes sociales para contrastarlas luego con las que captan los millones de cámaras repartidas por todo el país y, mediante un complejo algoritmo, identificar y seguir el rastro de cualquier persona.

Para algunos usos, como los dispositivos médicos regulados que incluyen monitores cardíacos asistidos por IA, los marcos existentes representan un buen punto de partida. Para otros más novedosos y en fase de desarrollo, como los vehículos autónomos, las autoridades deberán crear una normativa adecuada que tenga en cuenta todos los costes y beneficios que se derivan de ella.

«La IA tiene el potencial de mejorar miles de millones de vidas, y el mayor riesgo puede ser que no lo haga. Si nos aseguramos de que sea desarrollada de manera responsable y en beneficio de todos, podremos inspirar a las generaciones futuras para que estén tan convencidas como yo del poder de la tecnología», concluye Pichai.

España se encuentra a medio camino en la adopción de inteligencia artificial, ocupando el puesto 14 en densidad de robots pero el 54 en inversión en tecnología emergente, según el Índice de Competitividad por el Talento Global (GTCI) elaborado por Google junto a Adecco Group Institute y la escuela de negocios Insead. En general, la brecha entre los países líderes está creciendo, el talento en IA es escaso y está distribuido de forma desigual. Una tecnología que podría jugar un papel clave en la resolución de problemas globales como la pobreza, las enfermedades endémicas, el cambio climático y el terrorismo exige mayor inversión y responsabilidad.

Conoce toda nuestra oferta de newsletters

Hemos creado para ti una selección de contenidos para que los recibas cómodamente en tu correo electrónico. Descubre nuestro nuevo servicio.

Votación
1 votos
Comentarios

Hora de regular la inteligencia artificial