La regulación de la IA no suple su poder

Andrea Palau, Andrea Martínez, David Raurell y Gerard Rengel

En la última década, el avance vertiginoso de la Inteligencia Artificial ha planteado una serie de dilemas éticos relacionados con la intimidad. A pesar de que es una tecnología que potencialmente puede mejorar nuestras vidas en muchos aspectos, también plantea una serie de riesgos que es importante tener en cuenta, como su capacidad de crear fotos, audios y vídeos como si fueran reales.


Estudios de privacidad del consumidor, como el realizado por la Asociación Española de Usuarios de la Informática y la Comunicación, indican que el 72% de los usuarios de asistentes virtuales en España expresan preocupaciones sobre la privacidad de sus datos de voz. A medida que la lA se integra en diversas áreas de la sociedad, se cuestiona la falta de regulación entre la innovación tecnológica y la protección de los derechos individuales. Existen asistentes virtuales que utilizan IA, como Siri de Apple, Alexa de Amazon o Google Assistant.

A lo largo de los años, ha habido informes de conversaciones privadas grabadas por accidente y escuchadas por empleados de estas empresas para beneficio propio. Además, también se han dado recientemente dos casos de fotos sexuales falsas de menores, difundidas en las redes sociales y creadas por la inteligencia artificial. Por esa razón, es importante saber diferenciar entre la IA y la realidad.

Este tipo de actuaciones, no solo han causado desasosiego entre usuarios, sino que han dado lugar a que el Consejo de la UE haya implementado un “Enfoque general de la Ley de Inteligencia artificial”. Entre las novedades legales que comenta, las más importantes tienen que ver con “prohibir sistemas IA que tengan una alta probabilidad de dañar física o psicológicamente a los ciudadanos”, y que “los proveedores garanticen que los sistemas de IA informen a personas físicas sobre cómo y con quien interactúan”. De esta manera, se evitará que se cuestione la transparencia y el consentimiento informado de los usuarios en relación con la recopilación y el manejo de sus datos personales.

Quiz interactivo

Beneficios potenciales de la IA:

  • La automatización de tareas, lo que podría liberar a las personas para centrarse en tareas más creativas e innovadoras.
  • La mejora de la toma de decisiones, ya que las IA pueden procesar grandes cantidades de datos de manera más rápida y precisa que los humanos.
  • La mejora de la atención sanitaria, ya que las IA pueden ayudar a los médicos a diagnosticar enfermedades, desarrollar nuevos tratamientos y proporcionar atención personalizada a los pacientes.
  • Puede ayudar a las empresas a aumentar su productividad, lo que puede conducir a una mayor eficiencia y competitividad.

Riesgos potenciales de la IA

  • El desempleo, ya que las IA podrían reemplazar a los trabajadores en algunas tareas.
  • La manipulación, ya que las IA podrían utilizarse para difundir información falsa o manipular la opinión pública.
  • La IA podría aumentar la desigualdad, ya que las personas con acceso a la IA podrían beneficiarse más de ella que las personas que no tienen acceso.
  • Podría ser utilizada para fines maliciosos, como la creación de armas autónomas o la difusión de desinformación.

Además, a pesar de que se ha aprobado por un grupo de científicos la “Declaración de Barcelona” – un informe de recomendaciones para evitar un uso poco ético de la inteligencia artificial – según una encuesta de la Fundación para la Innovación de la Tecnología en el Trabajo, en España, el 82% de los empleados son vigilados constantemente en su oficio y consideran que afecta negativamente a su bienestar y productividad.

Por si fuera poco, se ha hecho viral un vídeo en el que una IA mide en datos numéricos el rendimiento de los empleados de una cafetería. Mientras en X (anteriormente Twitter) lo tachan de una actuación deshumanizada y poco ética, los expertos lo llaman “el futuro”.

Tuit que ejemplifica el conflicto ético sobre a vigilancia de la IA

La realidad es que la implementación de sistemas de inteligencia artificial para monitorear las tareas de los empleados sirve como herramienta para rastrear las interacciones en el lugar de trabajo, lo que plantea una invasión de la privacidad de los empleados y el potencial abuso de poder.


Entrevista a Carles Llorens

Para conocer más sobre el tema, se ha contactado con el profesor de Tecnologías de la Información y la Comunicación (TIC) de la Universidad Autónoma de Barcelona, Carles Llorens, para escuchar su punto de vista sobre el creciente uso y desarrollo de la inteligencia artificial.

El experto señala que uno de sus principales temores que tiene sobre el crecimiento de la IA es que pueda tener efectos negativos similares a los que han tenido las redes sociales. “Al principio parecía todo “flors i violes”, pero después se ha visto que tiene efectos colaterales”, explica. Las redes sociales han sido utilizadas para difundir desinformación, propaganda y discursos de odio.
Por este motivo, Llorens espera que la IA no pueda utilizarse para estos mismos fines, y que pueda llevar a consecuencias aún más graves.

“Habrá mucha gente buscando el beneficio económico”

Además, también comenta que el crecimiento de la IA podría provocar un aumento del desempleo, ya que las máquinas pueden automatizar muchas tareas que actualmente realizan los humanos. “La opción de que haya gente que quiera hacer negocio y aprovecharse siempre va a estar ahí” afirma Llorens.

Al preguntarle sobre el efecto que puede tener en la educación, el profesor afirma que la IA tiene el potencial de revolucionar la educación. “La inteligencia artificial tiene una capacidad y fortaleza suficientes para ayudar con las cuestiones intelectuales”. Explica que podría utilizarse para crear entornos de aprendizaje personalizados que se adapten a las necesidades individuales de cada estudiante. “También podría utilizarse para proporcionar a los estudiantes acceso a una gran cantidad de información y recursos educativos” acaba diciendo Llorens.

Infografía sobre los contenidos más destacados de la entrevista

Con la nueva ley sobre la IA, el especialista considera que la Unión Europea está dando un paso positivo, pero que aún hay margen de mejora. La ley establece una serie de regulaciones para las IA de alto riesgo, pero deja fuera otros tipos de IA que también podrían tener un impacto negativo en la sociedad.

“HAy que regular el copyright, porque la IA está plagiando a los medios de comunicación y puede acabar con el negocio periodístico”

De todas formas, piensa que la UE debería apostar más por la IA abierta y gratuita, puesto que permitiría a cualquier persona utilizarla y contribuir a su desarrollo. “Esto ayudaría a garantizar que la IA se desarrolle de forma responsable y ética” afirma.

Fragmento extraído de la entrevista realizada a Carles Llorens

De cara al uso de la IA en el periodismo, la idea de Llorens es clara: “como herramienta es fantástica, pero se tiene que aprender a usar correctamente” asegura. Además, explica que como no es del todo segura (puesto que no es real, muchas veces tiene “alucinaciones”) tiene que haber un editor que revise el contenido y que avise al lector de su uso.

Artículo anteriorLa inversión de los españoles en Lotería de Navidad
Artículo siguienteEls Golden Globe Awards s’han tornat un joc