Ir al contenido

Ética en la IA

Retos y perspectivas de la intelgencia artificial

La inteligencia artificial (IA) ha llegado a nuestras vidas para quedarse. No hay duda de que está siendo una gran revolución y está transformando todos los aspectos de nuestra sociedad. 


A pesar de que el término "inteligencia artificial" o "IA" parece muy moderno, la realidad es que comenzó a desarrollarse como disciplina académica en los años 50, donde en la famosa conferencia de 1956 en Dartmouth se acuñó el término. Al principio, se utilizaba principalmente para resolver teoremas matemáticos y jugar al ajedrez. Más tarde, se introdujo en sectores como la medicina y la industria, seguido de las finanzas, logística, defensa y videojuegos. 


Hoy en día, la IA está presente en nuestra vida más que nunca; desde la educación, salud o comercio, hasta transporte, entretenimiento y mundo laboral. 

¿Quién no conoce hoy en día a Chat GPT, Copilot o Gemini?

Hasta mi abuelo escribió una copla por el grupo familiar que decía así:

"Que sí, que no, que nunca te decides, que sí, que no, que nunca te decides, que no puedes vivir sin saber lo que quieres. Tienes que elegir de una vez por todas un camino en la vida, para bien o para mal, pero siempre con cautela y la ayuda de la IA, para errar lo menos posible. Riau, riau."


Sin embargo, a pesar de todas las ventajas que presenta la IA en nuestras vidas, también plantea retos, especialmente a nivel ético, que requieren una atención urgente. 


La normativa actual: hacia un marco global de regulación

Debido a la rápida expansión de la popularidad de la IA, las regulaciones sobre el tema han tenido que ponerse manos a la obra. La UNESCO, en 2021, adoptó la "Recomendación sobre la Ética de la Inteligencia Artificial", que destaca principios fundamentales como la transparencia, la responsabilidad y la sostenibilidad. Este documento sirve como una guía global para el desarrollo y uso responsable de la IA. 


La Unión Europea (UE), lidera los esfuerzos regulatorios con la propuesta de la Ley de Inteligencia Artificial (AI Act), presentada en abril de 2021. Este marco pretende clasificar los sistemas de IA según su nivel de riesgo, desde aplicaciones de bajo riesgo hasta sistemas considerados de alto riesgo, como los utilizados en atención médica, infraestructura crítica o selección de personal. Aunque el AI Act aún está en fase de negociaciones, se espera que sea aprobado en 2025, marcando un antes y un después en la regulación global de la IA. En contraste, otros países como Estados Unidos y China han adoptado enfoques menos uniformes, priorizando la innovación por encima de una regulación estricta.


Como se puede observar, a día de hoy seguimos muy verdes en cuanto a la normativa de la inteligencia artificial, lo que nos plantea importantes retos a nivel ético. Por ejemplo, en el ámbito educativo, se debate cómo integrarla éticamente, asegurándose de que sea una herramienta que complemente y no que sustituya a los profesores. Asimismo ocurre en diferentes profesiones, ya que la IA realiza las tareas mucho más rápido, eficazmente y cometiendo menos errores. 


No obstante, se debate también en el ámbito empresarial, quién tiene la responsabilidad penal en caso de errores o mal uso. 

Por ejemplo, si un sistema de IA comete una discriminación algorítmica, ¿quién debe asumir la responsabilidad? Estos dilemas subrayan la importancia de diseñar sistemas que minimicen prejuicios inherentes y sean auditablemente transparentes.


Noticias recientes: casos que ilustran los desafíos éticos

La actualidad nos ofrece ejemplos claros de los retos éticos de la IA. Un caso reciente involucra a Paul McCartney, quien criticó propuestas relacionadas con la IA y los derechos de autor en el Reino Unido, argumentando que podrían perjudicar la creatividad y los derechos de los autores. Este debate resalta la necesidad de equilibrar la innovación con la protección de los derechos humanos y artísticos.


Otro caso revelador es el de los sistemas de IA generativa de sonido, que han producido audios con contenido ofensivo y sesgado. Esto evidencia cómo los prejuicios en los datos utilizados para entrenar estos sistemas pueden amplificarse, afectando negativamente a ciertos grupos sociales y fomentando estereotipos.


Lo que se espera: el futuro de la ética en la IA

De cara al futuro, se anticipa una regulación más estricta para abordar los problemas emergentes. La implementación de la AI Act podría establecer un estándar global que inspire a otros países a adoptar medidas similares. También se espera una mayor colaboración entre gobiernos, empresas y organismos internacionales para promover un uso responsable de la IA.

En el ámbito técnico, las mejoras en los algoritmos buscan mitigar los sesgos y aumentar la transparencia. Además, se plantea integrar la ética en la cultura organizacional, automatizando procesos de análisis que consideren principios éticos y ofreciendo escenarios futuros más inclusivos.


Conclusión

La ética en la IA es un tema de máxima prioridad en las agendas políticas, ya que su enorme potencial puede utilizarse para escenarios muy positivos y también muy negativos. El objetivo es crear marcos regulatorios que busquen el beneficio de toda la humanidad. La colaboración internacional y la integración de principios éticos en todas las etapas del desarrollo de la IA son fundamentales para construir un futuro más justo y sostenible.


Y tú, ¿qué opinas sobre la ética en la IA? Déjanos en comentarios tu opinión. 



 

Ética en la IA
Ciberin Security 27 de enero de 2025
Compartir
Archivar
Evento de Presentación de Ciberin Security en la Universidad Nebrija: Un Encuentro de Innovación, Conocimiento y Colaboración