bosque

adesso Blog

En la década de 1880, una compañía de ferrocarriles sudafricana contrató oficialmente a un babuino como empleado. Su deber era configurar los interruptores de las vías del tren para guiarlos hacia las pistas correctas, y durante los nueve años de servicio del mono, según se informa, realizó este trabajo sin cometer un solo error.

La fascinación de esta historia radica en la discrepancia entre la inteligencia que atribuimos al animal y el riesgo y el daño reputacional que cualquier error hubiera tenido. Contratar a un agente aparentemente no calificado es sin duda una gran responsabilidad, por lo que es tranquilizador saber que los funcionarios ferroviarios solo contrataron al babuino, cuyo nombre era Jack, después de haber evaluado a fondo su competencia.

Si bien la contratación de monos empresariales nunca despegó como concepto, cada vez dependemos más de asistentes y herramientas no humanos para llevar a cabo nuestras tareas: los rápidos avances de la inteligencia artificial (IA) nos proporcionan algoritmos, bots y asistentes virtuales que asumen tareas cada vez más complejas e impactantes.

Confíar en la inteligencia no humana, ya sea artificial o simia, para tareas más allá de su competencia puede tener ramificaciones perjudiciales y de gran alcance. Como el primer gran cuerpo legislativo en hacerlo, la Comisión Europea ha reconocido los riesgos que entraña la IA no regulada y está preparando una ley para controlar y gestionar la influencia expansiva de los sistemas respaldados por IA en la vida cotidiana.

La Ley de IA de la UE

La Ley de IA de la UE es una legislación propuesta para regular el uso de la IA en el mercado de la UE. Para desarrollar esta regulación, la Comisión ha adoptado un enfoque agnóstico de la tecnología y basado en el riesgo, que establece diferentes niveles o estándares de cumplimiento según el riesgo asociado al papel de la IA. Estos roles se clasifican en categorías de riesgo que van desde el riesgo inaceptable (prohibido, como el puntaje social) hasta el alto riesgo (como la solvencia) y el bajo riesgo (por ejemplo, filtros de spam).

Dependiendo del riesgo, pueden ser necesarias diferentes medidas de precaución, informes y auditorías. Los requisitos exactos aún deben ser elaborados y el alcance, el plazo y las excepciones aún están en discusión. No obstante, la dirección general de la regulación es clara y proporciona un marco para que las empresas se preparen para los próximos cambios.

La reacción a estos cambios es mixta: los críticos lamentan la sofocación de la competitividad europea y la burocracia adicional, mientras que los defensores elogian su impacto ético y las nuevas oportunidades que ofrece esta interrupción. También estiman que la mayoría de los sistemas caerán en la categoría de bajo riesgo, lo que requerirá una supervisión mínima o nula.

¿Qué significa esto para tu empresa?

Gracias a sus poderosas capacidades (y al amor que siente el departamento de marketing por las palabras de moda), la IA es muy prevalente en el panorama actual de TI. La mayoría del software actual hace uso de la IA de una forma u otra, y su efecto en las decisiones empresariales cotidianas no siempre es claro a primera vista. Evaluar el riesgo que representan estos diferentes sistemas a la luz de la nueva regulación requiere un esfuerzo concertado de especialistas en procesos empresariales, científicos de datos y expertos legales.

La interpretación legal del acto aún carece de una delimitación clara. Como sucedió con el GDPR cuando se introdujo por primera vez, nadie podía prever cómo se aplicarían las reglas hasta que alguien las infrinja. Sin embargo, desde un punto de vista empresarial y de la ciencia de datos, hay formas de prepararse: la conciencia de los sistemas de IA en uso y la evaluación de su riesgo son una necesidad. Para la garantía continua de calidad, una solución de monitoreo estandarizada evita la implementación de modelos cuyo rendimiento cambia con el tiempo. Y una estimación del impacto de los costos de la regulación le ayuda a mantenerse dentro del presupuesto.

En adesso, entendemos los desafíos y oportunidades que introduce el acto de IA de la UE y estamos felices de apoyar su camino hacia una IA responsable.

Leer más:

Imagen Andreas Helfenstein

Autor Andreas Helfenstein

Andreas Helfenstein se unió a adesso Nordics como Senior Data Scientist, donde trabaja con inteligencia artificial, aprendizaje automático y análisis de datos. Tiene una larga experiencia con técnicas y tecnologías relacionadas con datos, en particular visión por computadora, procesamiento de lenguaje natural, grafos de conocimiento y análisis de redes.

Guarde esta página. Eliminar esta página.