Assim como a revolução industrial conseguiu redefinir o trabalho manual, a IA ética está a caminho tanto de reinventar o trabalho intelectual quanto de remodelar todos os setores de trabalho, do entretenimento à área da saúde, passando pela indústria e, finalmente, pela educação.
No entanto, o novo avanço sobre essa tecnologia gerou importantes questões éticas sobre o impacto que a IA ética está tendo sobre a sociedade. Apesar das regulamentações governamentais, surgiu a necessidade iminente de estabelecer princípios sólidos que definam a forma como implementar e desenvolver a inteligência artificial.
Neste caso, a responsabilidade da sociedade não deveria ser apenas um cumprimento normativo; pelo contrário, é vital que seja uma meta coletiva que promova a equidade, proteja o bem-estar social, mas que, acima de tudo, respeite os direitos humanos.
Por isso, ao longo deste artigo, investigaremos os princípios mais relevantes da IA ética, bem como a participação pública em sua regulamentação, os vieses nos algoritmos e o papel que as empresas e os programadores assumem na criação de um futuro tecnológico mais justo e responsável.
Princípios fundamentais da IA ética
Com base no exposto, a ética na IA deve construir seus alicerces sobre uma série de princípios que orientem tanto seu desenvolvimento quanto sua aplicação, de maneira mais responsável e justa. Posteriormente, analisaremos quais são esses princípios fundamentais pelos quais devemos nos guiar e, acima de tudo, respeitar ao realizar a criação da IA.
Justiça
Este princípio garante que todos os sistemas de IA ética sejam completamente equitativos e acessíveis para todos os usuários, de modo que a discriminação por parte das máquinas possa ser reduzida, seja por motivos de gênero, religião, raça ou classe social.
Um modelo observável do exposto e que tem despertado um alarme na humanidade devido à violação deste princípio é o caso do reconhecimento facial que tem sido utilizado pela polícia em vários países, onde as IAs têm apresentado vieses racistas visíveis.
De acordo com alguns estudos realizados pelo Instituto de Tecnologia de Massachusetts (MIT), os algoritmos de reconhecimento facial têm demonstrado maior precisão ao identificar pessoas de pele clara do que pessoas de pele escura, o que tem levado à geração de certas preocupações sobre a notável discriminação.
Transparência

A sequência de passos que estas máquinas utilizam, ou mais conhecida como “algoritmos”, deve apresentar total disponibilidade para reguladores e, em grande parte, para os usuários; isto significa que os programadores devem fornecer explicações claras e completas sobre como estes sistemas funcionam, bem como sobre como eles tomam decisões. Mesmo assim, vários sistemas de IA atuais continuam opacos, o que dificultou a forma como as pessoas entendem como decisões importantes são tomadas.
Um exemplo claro disto foi quando um tribunal da Grã-Bretanha, em 2019, decretou que o uso de algoritmos de IA utilizados na avaliação rigorosa para solicitar potenciais vagas de asilo era muito opaco e não cumpria exatamente os requisitos de transparência que lhe eram exigidos.
Privacidade
Possivelmente este seja um dos princípios mais importantes dentro da ética em IA, pois a garantia da proteção de dados pessoais tem sido comprometida em várias ocasiões, principalmente devido ao seu crescimento em dispositivos conectados.
Por esta razão, em 2020, a Comissão Europeia encarregou-se de propor novas regulamentações, de modo a permitir que os utilizadores de sistemas de IA obtivessem maior privacidade e segurança dos seus dados pessoais ao utilizarem estas ferramentas; esta foi uma das suas principais estratégias para garantir que a IA respeite a privacidade do consumidor.
Responsabilidade
Este princípio destaca a responsabilidade que tanto os programadores de IA ética quanto as empresas que trabalham para o seu desenvolvimento e progresso devem assumir; os quais devem ser responsáveis pelas consequências que as suas tecnologias podem ter sobre a sociedade, especialmente quando estas estão a causar danos visíveis nas pessoas.
Um caso evidente disso foi um dos escândalos mais alarmantes ocorrido na empresa Cambridge Analytica, onde vários dados pessoais foram utilizados indevidamente para dominar os processos eleitorais que seriam realizados.
Aqui nota-se a importância de estabelecer uma normativa que responsabilize as empresas desenvolvedoras de IA pelo uso irresponsável e indevido da inteligência artificial.
Vieses em algoritmos e como enfrentá-los

É um dos temas que mais tem gerado preocupação, pois é um facto que a IA ética não é um sistema completamente confiável e objetivo no momento de executar alguma ação. A mesma não se encontra livre de preconceitos que foram persistentes nos dados com os quais é treinada, o que acarreta uma possível discriminação, injustiça ou a prolongação de resultados injustos.
Casos reais de vieses em algoritmos
Um caso relevante de vieses em algoritmos aconteceu em 2018, quando o sistema de inteligência artificial para a contratação de pessoal na Amazon foi rejeitado porque demonstrava uma preferência visível por vagas masculinas.
Esta rede de dados que havia sido treinada para a contratação de pessoal duplicava o erro que existia na indústria tecnológica, o que só refletia como a IA podia perpetuar a desigualdade se os vieses presentes não fossem imediatamente controlados.
Estratégias para enfrentar os vieses
Várias organizações tecnológicas como a Partnership on AI estão a trabalhar na identificação de vieses algorítmicos e erros persistentes que causam estes prejuízos.
Estas organizações implementaram práticas de criação automatizada; da mesma forma, investigadores desenvolveram estratégias com o objetivo de criar algoritmos mais inclusivos, como o denominado “aprendizagem federada”, que tem a capacidade de treinar máquinas sem partilhar dados sensíveis e, para maior conveniência, são úteis para reduzir os vieses.
A intervenção dos cidadãos na regulamentação da IA
Este princípio é de vital importância, pois a participação ativa da sociedade no desenvolvimento de regulamentações que orientem o progresso da IA garante que a tecnologia seja utilizada de forma ética e que esteja alinhada com os valores e interesses, bem como com as expectativas da sociedade em geral.
Experiências de comunidades e debates públicos
Em vários países do mundo, têm sido realizados debates públicos sobre IA ética, os quais nos últimos anos têm vindo a ganhar força.
Por exemplo, nos Estados Unidos da América, instituições como o AI Now Institute lutam por maior transparência no uso da inteligência artificial em setores públicos e privados. Da mesma forma, a Comissão Europeia realizou consultas públicas com o objetivo de recolher as opiniões de cidadãos e especialistas sobre como implementar a regulamentação em IA de uma forma muito mais ética, responsável e transparente.
O papel da sociedade civil

A população desempenha um papel fundamental ao momento de promover a educação sobre IA ética, assim como suas implicações éticas. Tal é o caso das organizações não governamentais, acadêmicas e ativistas, as quais exigem que se realize a implementação de marcos éticos globais para garantir que a IA não seja utilizada para corromper a democracia, e muito menos infringir sobre os direitos humanos.
Um exemplo disso é a IA Ethics Lab, que tem trabalhado com o objetivo de alcançar a transformação e criação de políticas que beneficiem o uso da inteligência artificial de uma forma mais inclusiva e justa.
O papel das empresas e desenvolvedores
Programadores, desenvolvedores e empresas tecnológicas possuem uma posição chave em quanto à criação de uma IA ética; as práticas que realizam normalmente são criadas para marcar a diferença entre tecnologias que buscam favorecer a todos e outras que parecem perpetuar a desigualdade e os abusos sobre a sociedade.
Boas práticas e códigos de ética
Estes princípios éticos hoje em dia estão sendo adotados por empresas como Microsoft, Google e IBM, principalmente no desenvolvimento de sistemas para IA.
Tal é o caso do Google, que tem levado a cabo o princípio de ética em IA, para priorizar a transparência, o respeito à privacidade e, acima de tudo, a equidade em cada um dos serviços e produtos que oferece.
Por meio de seus IA Principles, a empresa se comprometeu a evitar o uso de IA ética em programas que possam afetar e de alguma forma prejudicar os usuários.
Iniciativas voluntárias
Apesar da existência de regulamentações governamentais, muitas empresas têm tomado medidas voluntariamente, com o objetivo de garantir que seus algoritmos sejam completamente éticos e responsáveis. Por exemplo, a IBM tomou a iniciativa de impulsionar um código ético, de modo a regular a utilização de suas tecnologias de reconhecimento facial, tudo isso com o objetivo de se comprometer a não utilizá-la em sistemas de vigilância em massa.
Conclusão
Em suma, como já mencionamos anteriormente, sabemos que a IA ética possui um grande potencial para transformar radicalmente nossa sociedade, mas isso só pode ser alcançado se o seu crescimento e desenvolvimento forem orientados por princípios éticos sustentados, bem como por uma colaboração ativa de todos os setores, como programadores, empresas, governos e, acima de tudo, a sociedade civil.
Estes agentes devem envolver-se e colaborar ativamente, para assim garantir que a IA seja utilizada de maneira que consiga proteger os direitos fundamentais da humanidade, fomentar a equidade e que seja uma ferramenta que, em vez de a corroborar, seja útil e benéfica para a mesma.
Por isso, a minha reflexão sobre este artigo é convidar todos os leitores a serem partícipes na edificação do nosso futuro próximo, no qual a tecnologia não seja vista como uma ameaça; pelo contrário, que seja um instrumento que impulse a criar uma sociedade muito mais justa, inclusiva e responsável pelos seus atos. É nossa responsabilidade assegurar que a IA sirva para fortalecer um bem comum e respeite os valores que redefinem as nossas sociedades.
