De la misma forma como la revolución industrial logró redefinir el trabajo manual, y la IA ética está en camino tanto de reinventar el trabajo intelectual como de remodelar todos los sectores laborales, desde el entretenimiento hasta el área de la salud, transcurriendo por la industria y finalmente posándose en la educación.
No obstante, el nuevo avance sobre esta tecnología ha generado importantes interrogantes éticos sobre el impacto que la IA ética está teniendo sobre la sociedad. A pesar de las regulaciones gubernamentales, se ha creado la necesidad inminente de entablar principios sólidos que diseñen la manera de cómo implementar y desarrollar la inteligencia artificial.
En este caso, la responsabilidad por parte de la sociedad no debería ser solo un cumplimiento normativo; al contrario, es vital que sea una meta colectiva que promueva la equidad, proteja el bienestar social, pero que sobre todo respete los derechos humanos.
Por ello, a lo largo de este artículo indagaremos sobre los principios más relevantes de la IA ética, así como la participación pública en su regulación, los sesgos en los algoritmos y el rol que las empresas y los programadores adoptan en cuanto a la creación de un futuro tecnológico más justo y responsable.
Principios fundamentales de la IA ética
En base a lo anterior, la ética en la IA debe construir sus cimientos sobre una serie de principios que orienten tanto su desarrollo como su aplicación, de una manera más responsable y justa. Posteriormente, analizaremos cuáles son esos principios fundamentales por los cuales debemos guiarnos y sobre todo respetar a la hora de llevar a cabo la creación de la IA.
Justicia
Este principio garantiza que todos los sistemas de la IA ética sean completamente equitativos y accesibles para todos los usuarios, de manera que se pueda reducir la discriminación por parte de las máquinas, ya sea por motivos de género, religión, raza o clase social.
Un modelo observable de lo anterior y que ha despertado una alarma en la humanidad debido a la violación de este principio es el caso del reconocimiento facial que ha sido utilizado por la policía en varios países, donde las IA han presentado sesgos racistas visibles.
De acuerdo con algunos estudios realizados por parte del Instituto Tecnológico de Massachusetts (MIT), los algoritmos de reconocimiento facial han mostrado más precisión a la hora de identificar personas de tez blanca que a personas de raza oscura, lo que ha llevado a generar ciertas preocupaciones sobre la notable discriminación.
Transparencia

ia etica
La secuencia de pasos que utilizan estas máquinas, o mejor conocida como «algoritmos», debe mostrar completa disponibilidad para los reguladores y, en gran medida, los usuarios; esto significa que los programadores deben proporcionar explicaciones claras y exhaustivas sobre cómo funcionan estos sistemas, al igual que cómo los mismos toman decisiones. Aun así, varios sistemas DE IA de la actualidad siguen siendo opacos, por lo que han dificultado la manera en cómo las personas entienden la forma de tomar decisiones importantes.
Claro ejemplo de esto ha sido cuando un tribunal de Gran Bretaña, para el año 2019, decretó que el uso de algoritmos de IA utilizados en la evaluación rigurosa para solicitar posibles vacantes de asilo era muy opaco y no cumplía exactamente con los requisitos de transparencia que se le exigían.
Privacidad
Posiblemente este sea uno de los principios más importantes dentro de la ética en la IA, ya que garantizar la protección de datos personales se ha visto comprometido en varias ocasiones, sobre todo por el crecimiento de la misma en dispositivos conectados.
Por esta razón, en el 2020, la Comisión Europea se encargó de plantear nuevas regulaciones, de manera que permitieran a los usuarios de sistemas DE IA obtener mayor privacidad y seguridad de sus datos personales cuando estuvieran utilizando estas herramientas; esta fue una de sus principales estrategias para asegurar que la IA respete la privacidad del consumidor.
Responsabilidad
Este principio resalta la responsabilidad que deben asumir tanto los programadores de la IA ética como las empresas que trabajan para el desarrollo y progreso de la misma; los cuales deben ser responsables de las consecuencias que sus tecnologías pueden tener sobre la sociedad, especialmente cuando las mismas están causando daños visibles en las personas.
Un caso evidente sobre ello fue uno de los escándalos más alarmantes ocurrido en la compañía de Cambridge Analytica, donde varios datos personales fueron utilizados de manera indebida para dominar los procesos electorales que se llevarían a cabo.
Aquí se nota la importancia de entablar una normativa que responsabilice a las empresas desarrolladoras de IA por el uso irresponsable e indebido de la inteligencia artificial.
Sesgos en algoritmos y cómo enfrentarlos

IA etica
Es uno de los temas que más ha generado preocupación, pues es un hecho que la IA ética no es un sistema completamente confiable y objetivo al momento de ejecutar alguna acción. La misma no se encuentra libre de prejuicios que han sido persistentes en los datos con los que se entrena, lo que conlleva una posible discriminación, injusticia o la prolongación de resultados injustos.
Casos reales de sesgos en algoritmos
Un caso relevante de sesgos en algoritmos sucedió en 2018 cuando el sistema de inteligencia artificial para la contratación de personal en Amazon fue rechazado porque mostraba una preferencia visible por vacantes masculinas.
Esta red de datos que había sido entrenada para la contratación de personal duplicaba el error que existía en la industria tecnológica, lo cual solo reflejaba cómo la IA podía perpetuar la desigualdad si no se controlaba de inmediato los sesgos presentes.
Estrategias para enfrentar los sesgos
Varias organizaciones tecnológicas como Partnership on AI se encuentran trabajando en la identificación de sesgos algorítmicos y errores persistentes que provocan estos perjuicios.
Estas organizaciones han implementado prácticas de creación automatizada; de igual forma, los investigadores han desarrollado estrategias con la finalidad de crear algoritmos más integradores, como el nombrado «aprendizaje federado», que tiene la capacidad de entrenar a las máquinas sin compartir datos sensibles y, para mayor conveniencia, son útiles para reducir los sesgos.
La intervención de los ciudadanos en la regulación de la IA
Este principio es de vital importancia, ya que la participación activa de la sociedad en el desarrollo de regulaciones que encaminen el progreso de la IA asegura que la tecnología sea usada de manera ética y que la misma se encuentre alineada con los valores e intereses, así como las expectativas de la sociedad en conjunto.
Experiencias de comunidades y debates públicos
En varios países del mundo, se han llevado a cabo debates públicos referentes a la IA ética, los cuales en los últimos años han comenzado a tomar fuerza.
Por ejemplo, en los Estados Unidos de América, instituciones como el AI Now Institute luchan por una mayor transparencia en cuanto al uso de la inteligencia artificial en los sectores públicos y privados. De igual forma, la Comisión Europea ha llevado a cabo consultas públicas con la intención de recoger las opiniones de los ciudadanos y expertos sobre cómo implementar la regulación en la IA de una manera mucho más ética, responsable y transparente.
El rol de la sociedad civil

ia etica
La población cumple un rol clave al momento de promover la educación sobre la IA ética, así como sus implicaciones éticas. Tal es el caso de las organizaciones no gubernamentales, académicas y activistas, las cuales exigen que se lleve a cabo la implementación de marcos éticos globales para asegurar que la IA no sea utilizada para corromper la democracia, y mucho menos infringir sobre los derechos humanos.
Un ejemplo de ello es la IA Ethics Lab, que ha estado trabajando con tal de lograr alcanzar la transformación y creación de políticas que beneficien el uso de la inteligencia artificial de una manera más inclusiva y justa.
El papel de las empresas y desarrolladores
Los programadores, desarrolladores y empresas tecnológicas poseen una posición clave en cuanto a la creación de una IA ética; las prácticas que llevan a cabo normalmente son creadas para marcar la diferencia entre tecnologías que buscan favorecer a todos y otras que parecen perpetuar la desigualdad y los abusos sobre la sociedad.
Buenas prácticas y códigos de ética
Estos principios éticos hoy en día están siendo adoptados por compañías como Microsoft, Google e IBM, principalmente en el desarrollo de sistemas para IA.
Tal es el caso de Google, quien ha llevado a cabo el principio de ética en IA, para de esta manera priorizar la transparencia, el respeto a la privacidad y sobre todo la equidad en cada uno de los servicios y productos que ofrece.
Por medio de su IA Principles, la empresa se ha comprometido a eludir el uso de IA ética en programas que puedan afectar y de alguna manera perjudicar a los usuarios.
Iniciativas voluntarias
A pesar de la existencia de las regulaciones gubernamentales, muchas empresas se han sumado a tomar medidas de manera voluntaria, con la finalidad de asegurar que sus algoritmos sean completamente éticos y responsables. Por ejemplo, IBM ha tomado la iniciativa de impulsar un código ético, de manera que regule la utilización de sus tecnologías de reconocimiento facial, todo esto con el objetivo de comprometerse a no utilizarla en sistemas de vigilancia multitudinarios.
Conclusion
En definitiva, como ya hemos hecho mención anteriormente, sabemos que la IA ética posee un gran potencial para transformar de forma radical nuestra sociedad, pero esto puede lograrse solo si su crecimiento y desarrollo se encamina mediante principios éticos sustentados, al igual que una colaboración completamente activa por parte de todos los sectores, como programadores, empresas, gobiernos y, sobre todo, la común civil.
Estos agentes deben involucrarse y colaborar activamente, para así garantizar que la IA sea utilizada de manera que logre proteger los derechos fundamentales de la humanidad, fomentar la equidad y que sea una herramienta que, en vez de corroborarla, sea útil y beneficiosa para la misma.
Por ello, mi reflexión sobre este artículo es invitar a todos los lectores a que sean partícipes en la edificación de nuestro futuro próximo, en el cual la tecnología no se vea como una amenaza; al contrario, que sea un instrumento que impulse a crear una sociedad mucho más justa, inclusiva y responsable de sus actos. Es nuestra responsabilidad asegurarnos de que la IA sirva para fortalecer un bien común y respete los valores que redefinen nuestras sociedades.