inteligencia artificial

adesso Blog

El auge de la IA – ¿pero a qué costo?

“La inteligencia artificial (IA) afecta cada vez más nuestras vidas. Ofrece oportunidades, pero también plantea riesgos, en particular para la seguridad, la democracia, las empresas y los empleos.”

Con estas palabras, el Parlamento Europeo (EuroParl) introduce su artículo sobre la Ley de IA (AI Act).

Tanto en nuestra vida privada como en la profesional, la IA se ha vuelto indispensable. Sus aplicaciones van desde los GPT, que pueden proporcionar, modificar o generar fácilmente una gran cantidad de conocimiento, hasta agentes de IA que realizan tareas específicas de manera automática. Existe una amplia variedad de aplicaciones de IA que pueden protegernos y ayudarnos, tanto a nivel empresarial como social.

Más allá de las oportunidades, el Parlamento Europeo también enumera riesgos explícitos que pueden considerarse razones para la adopción de la regulación europea de IA (AI Act): por un lado, si como sociedad no nos involucramos lo suficiente con la IA —que podría habernos hecho más seguros o eficientes— perderemos oportunidades. Por otro lado, el uso excesivo de la IA puede llevar al desperdicio de recursos o a su utilización en tareas inapropiadas. Es nuestra responsabilidad colectiva mantener un equilibrio. Esto aplica tanto a los ciudadanos como a las organizaciones.

Sin embargo, el EuroParl también concede especial importancia a las amenazas a los derechos fundamentales y a la democracia. La IA puede tener un impacto profundo en nuestra sociedad, tanto positivo como negativo. Las decisiones tomadas por los sistemas de IA siempre se basan en elecciones de diseño y en datos. Si no se identifican sesgos estructurales o puntos ciegos, los sistemas de IA pueden reproducir o incluso reforzar la discriminación —por ejemplo, en la selección de personal, la concesión de créditos o la aplicación de la ley.

Un caso muy comentado en los medios estadounidenses se relaciona con el lanzamiento de la tarjeta de crédito de Apple (Apple Card) en cooperación con el banco Goldman Sachs. Varias figuras públicas recibieron diferentes límites de crédito. Steve Wozniak, cofundador de Apple Inc., por ejemplo, recibió un límite diferente al de su esposa. En su investigación, la autoridad reguladora responsable, el Departamento de Servicios Financieros del Estado de Nueva York (NYSDFS), concluyó que el sistema de IA subyacente no era lo suficientemente transparente. Esto provocó una discriminación no intencionada en la concesión de créditos.

La protección de la privacidad también es un tema relevante en este contexto, ya que la IA se utiliza cada vez más para el reconocimiento facial, el rastreo y la elaboración de perfiles. Al mismo tiempo, sin embargo, la desinformación personalizada y los deepfakes realistas amenazan el discurso público y la formación de la opinión democrática. En contextos autoritarios, estas tecnologías pueden socavar la libertad de reunión y obstaculizar la participación de la sociedad civil.

Aquí es donde entra en juego la evaluación del impacto de la IA. Como instrumento central de la Ley de IA y de la norma ISO/IEC 42001:2023, sirve para identificar riesgos en una etapa temprana, evaluarlos de manera sistemática y limitarlos de forma específica. Además de la solidez técnica, la responsabilidad, la transparencia y el diseño centrado en el ser humano tienen aquí una importancia particular.

¿Qué es una evaluación de impacto de la IA?

Como ya se mencionó, la evaluación del impacto de la IA es un requisito específico de la Ley de IA y también de la norma ISO/IEC 42001:2023. La evaluación del impacto de la IA, también conocida como evaluación del impacto en los derechos fundamentales, tiene como objetivo evaluar el efecto de un sistema de IA sobre los derechos fundamentales, la salud y la seguridad de las personas o de la sociedad. Se aplica en particular a determinados sistemas de IA de alto riesgo.

El procedimiento exacto aún está siendo definido por la Oficina de IA de la Comisión Europea, pero en su implementación debería dividirse en los siguientes pasos:

A primera vista, se hace evidente que los elementos de una evaluación de impacto de la IA son similares a la estructura y al propósito de una evaluación de impacto en la protección de datos conforme al RGPD.

Como en otros ámbitos, tiene sentido en la práctica basarse en procesos ya existentes para su implementación.

¿Por qué deberían realizarse ahora las evaluaciones de impacto de la IA?

Los expertos en protección de datos saben que, según el Art. 35(1) del RGPD, debe realizarse una evaluación de impacto en la protección de datos antes de que puedan procesarse datos personales (PBDS). Este requisito también existe en la Ley de IA. Según el Art. 27 de la Ley de IA, debe realizarse una “evaluación del impacto en los derechos fundamentales” antes de poner en funcionamiento un sistema de IA. Esto aplica especialmente a los sistemas de IA de alto riesgo.

¿En qué áreas deben realizarse evaluaciones de impacto de la IA en particular?

El Anexo III de la Ley de IA enumera los casos de uso de sistemas de IA que entran en la categoría de “alto riesgo”. Esto aplica en especial a los ámbitos en los que las decisiones tomadas por la IA tienen un impacto directo en la vida, la seguridad o los derechos de las personas:

  • Identificación biométrica, como la identificación remota de individuos o el reconocimiento de características sensibles y emociones.
  • Infraestructuras críticas, como el control del suministro de energía, redes digitales o tráfico vial.
  • Educación, si los sistemas de IA determinan el acceso, la evaluación del rendimiento o el comportamiento en exámenes.
  • Empleo, incluyendo selección de candidatos, evaluación de empleados o asignación automática de tareas. También afecta al acceso a servicios esenciales como beneficios sociales, préstamos, seguros y sistemas de emergencia.
  • Aplicación de la ley, como evaluar el riesgo de reincidencia, analizar pruebas o actuar como detector de mentiras.
  • Migración y gestión fronteriza, en evaluaciones de riesgo o apoyo a decisiones de asilo.
  • Poder judicial y procesos democráticos, cuando los sistemas de IA apoyan decisiones judiciales o influyen en el comportamiento de voto.

Al considerar estos casos de uso, llama la atención que los sistemas de IA ya se están utilizando en algunos de ellos. Esto significa que, conforme a la Ley de IA, deben realizarse evaluaciones de impacto de la IA al menos ex post en estas áreas y, en ciertos casos, suspender el uso del sistema hasta que se complete la evaluación.

Nota:

En junio de 2025, la Agencia Federal de Redes de Alemania impuso una multa de aproximadamente dos millones de euros a un proveedor de IA médica por no realizar una evaluación de riesgos. Aunque las sanciones de la Ley de IA no se aplicarán oficialmente hasta agosto de 2025, la Ley de Vigilancia del Mercado ya vigente en Alemania permite a la Agencia Federal de Redes actuar de forma anticipada. Esta ley nacional complementa la Ley de IA y crea una base jurídica para sancionar violaciones incluso antes de que entre en vigor el marco sancionador europeo.

Conclusión: la evaluación de impacto de la IA como herramienta estratégica

La evaluación del impacto de la IA es más que una obligación regulatoria. Es una herramienta estratégica para generar confianza en el uso de la IA, gestionar riesgos de forma sistemática y cumplir con las responsabilidades sociales y corporativas.

Su valor añadido es evidente no solo en la protección legal, sino también en el desarrollo dirigido de sistemas de IA robustos, justos y transparentes que fomenten tanto el éxito empresarial como el bien común.

Para cumplir con este requisito, se necesita un enfoque proactivo e interdisciplinario. Los departamentos especializados, el área de TI, el área legal, protección de datos, ética y seguridad de la información deben trabajar juntos para establecer procedimientos de evaluación efectivos. Esto permite identificar áreas críticas en una fase temprana, evitar desarrollos no deseados y aprovechar el potencial de manera segura.

La implementación de la evaluación de impacto de la IA como práctica estándar debería ser, por tanto, el objetivo de toda organización que desee utilizar la IA de forma responsable.

¡Estamos aquí, para ti!

adesso ofrece a las organizaciones un apoyo integral en el establecimiento de un marco sostenible de gobernanza de la IA. Te acompañamos:

  • en la identificación de casos de uso relevantes de IA,
  • en la realización y documentación de evaluaciones de impacto de la IA (basadas en la ISO/IEC 42001 y la Ley de IA),
  • en la configuración de procesos de gestión integrada de IA dentro de las estructuras existentes de protección de datos, riesgos de TI y cumplimiento normativo,
  • en el establecimiento de un sistema de gestión de IA conforme a la ISO/IEC 42001:2023, y
  • en la capacitación de los actores internos para garantizar una implementación coherente en toda la organización (aquí encontrarás formaciones sobre implementadores de AIMS en cooperación con nuestro socio qSkills).

De esta forma, la evaluación de impacto de la IA no se convierte en un obstáculo, sino en un habilitador de innovación confiable.

¿Y ahora qué?

Apoyamos a las empresas en la creación de un AIMS de manera dirigida y práctica, desde el análisis inicial de madurez hasta la integración completa en los sistemas de gestión existentes. Nuestro equipo interdisciplinario de expertos en gobernanza de TI, gestión de riesgos de TI, cumplimiento normativo y tecnología de IA te ofrece un acompañamiento integral en tu camino hacia un uso seguro, conforme y confiable de la IA.

Escríbenos

Imagen Kaan Güllü

Autor Kaan Güllü

Categoría:

AI

Palabras clave

GenAI

inteligencia artificial