¿Andarías en un auto a 100 kilómetros por hora, si no tiene buenos los frenos? La respuesta es un “no” rotundo. Creo que esa misma reflexión es la que debemos hacernos al momento de utilizar herramientas relacionadas con Inteligencia Artificial (IA).

Esta tecnología nos ha ido permitiendo reducir fricciones, identificar oportunidades y resolver problemas cada vez más rápido, gracias a su creciente penetración en nuestro día a día.
En la actualidad, está embebida en el diseño de productos y servicios, flujos de trabajo corporativo, modelos analíticos y hasta en las más variadas aplicaciones, como por ejemplo apps móviles, redes sociales, mapas, etc. Lo profundo de la usabilidad de la IA, hace que cada día le debamos exigir más.
Después de todo, es una herramienta y, como tal, es responsabilidad de quienes implementamos la IA asegurarnos de que sea utilizada de manera ética, conforme a las mejores prácticas y en beneficio de consumidores y empresas. La calidad de la conducción del auto —siguiendo con el ejemplo anterior— va a depender de muchos factores, como que se respeten las normas de tránsito, pero la base inicial son las decisiones de su constructor.
¿Cómo lograrlo?
La mayoría de las compañías insertas en el mundo de la tecnología han instalado programas de gobernanza, que buscan definir la dirección estratégica, supervisar el uso de la IA y establecer los principios y prácticas que apunten al uso responsable de estos algoritmos, es decir, por medio de una ejecución transparente, confiable, justa, explicable y segura.
Es un buen punto de inicio, sobre todo considerando el creciente aumento de ciberamenazas, cada vez más sofisticadas. La seguridad digital es un frente con el que las organizaciones lidiamos a diario, aplicando soluciones de IA para potenciar su uso positivo y neutralizar el negativo.
En este punto, también nos enfrentamos con el desafío de la escasez de capital humano avanzado. De muestra, un botón: Según la primera Radiografía de Ciberseguridad en la Oferta Académica, realizado por la Alianza Chilena de Ciberseguridad y Equifax Chile, solo 17% de las instituciones de Educación Superior cuentan con una oferta académica con denominación en Ciberseguridad.
A lo anterior, se suma un segundo aspecto desafiante, la regulación. Así como la fabricación y uso de automóviles dispone estándares obligatorios para algunos temas (como por ejemplo la seguridad) y deja a la creatividad algunos otros (en términos de diseño o confort), la discusión y conveniencia de los marcos normativos de la IA es algo donde cada país avanza a su propio ritmo.
Sin reglas claras, corremos el riesgo de que estas tecnologías avancen sin los controles adecuados, exponiendo a consumidores y empresas a potenciales riesgos. Con reglas demasiado estrictas, podemos matar los beneficios de su utilización. Sin duda, un balance complejo.
Otro aspecto fundamental en determinadas aplicaciones es la necesidad de mayor transparencia en los modelos de IA. No basta con que un sistema funcione bien; también debe ser comprensible para los usuarios y las organizaciones que lo implementan. ¿Cómo tomó una determinada decisión un algoritmo? ¿Se aplicaron criterios justos? La explicabilidad de la IA es clave para generar confianza y evitar sesgos que puedan afectar negativamente a las personas.
Por último, el desarrollo de la IA debe ir acompañado de una cultura organizacional que fomente su uso responsable. No se trata solo de programadores o ingenieros creando algoritmos avanzados, sino de líderes empresariales, reguladores y académicos promoviendo un enfoque ético e inclusivo. Al igual que un buen auto requiere de un conductor responsable, la IA necesita de una gestión consciente que garantice su impacto positivo en la sociedad.
Sigue toda la información de Open Hub News en X y Linkedin , o en nuestra newsletter.