Imagem de destaque do post Uma ética para robôs e Inteligência Artificial

Uma ética para robôs e Inteligência Artificial

Sistemas inteligentes precisam de ética tanto quanto humanos? permalink

Robôs dotados de Inteligência Artificial já não são mais personagens de ficção científica. Eles estão profundamente integrados na rotina de milhões de pessoas e milhares de empresas e indústrias, dos mais diversos ramos e setores. Quem ainda não conversou com um chatbot ou foi atendido por um robô no telefone?

Em tempos onde a comunicação e a interação está drasticamente sendo alterada e ressignificada, com robôs e inteligências artificiais assumindo rostos, personificações e expressões cada vez mais humanas, questões muito humanas são postas em evidência. Existe alguma ética que controle as ações e “pensamentos” desses sistemas inteligentes? Até que ponto o fator humano se aplica a eles? Quem deve ser punido em caso de desvio de conduta?

Essas questões são baseadas em tomadas de decisões enviesadas e algumas polêmicas causadas por robôs ou sistemas de IA, como reproduções de falas preconceituosas, por exemplo. Para as pessoas que se depararam com essas situações, os critérios usados por esses sistemas inteligentes não pareceram claros o suficiente. Algumas empresas responsáveis pelos sistemas tentaram contornar a questão, mas até então não havia uma centralização do tema, internacionalmente falando. Em 2019, a União Européia deu o primeiro passo para criar um modelo aplicável globalmente e que enquadrasse todas as empresas desenvolvedoras de sistemas de inteligência artificial.

Modelo internacional

Com isso, a UE estabeleceu sete pontos para definir se uma inteligência artificial é confiável ou não:

Aplicação e futuro do modelo

O modelo foi criado com a ajuda de 52 especialistas no tema, entre acadêmicos, órgãos setoriais e empresas como Google, Bayer, Santander e SAP. Por se tratar de um modelo ainda em teste, os pontos levantados não possuem força de lei. No entanto, devem servir de orientação para os desenvolvedores de plataformas e sistemas de Inteligência Artificial, apesar de não haver punição ou restrição em caso de não adesão ao modelo.

O objetivo da União Européia é, contudo, expandir e aperfeiçoar o modelo para além dos países que compõem o bloco. A Comissão Européia pretende levar a pauta para países asiáticos como Japão e Cingapura, grandes expoentes nesse ramo tecnológico e importantes fornecedores e exportadores de sistemas inteligentes globalmente. Além disso, a pauta também deverá ser discutido com o G7 e o G20, do qual o Brasil faz parte.

O projeto-piloto será avaliado em 2020 por especialistas em Inteligência Artificial para que possam ser discutidos os próximos passos. Cada um dos pontos será analisado, separadamente e em conjunto, para uma percepção mais acurada da viabilidade e aplicabilidade do modelo e identificação de melhorias e mudanças.

Por que isso é importante?

A rotina humana já incorporou os sistemas inteligentes tão profunda e naturalmente que quase não se nota mais quando estamos lidando com outros humanos ou não. Dessa forma, os procedimentos precisam ser revistos para adequar a atividade desses sistemas ao padrão aceito na sociedade humana.

Do mesmo modo que humanos precisam seguir regras de comportamento e conduta, também precisam os robôs. Sendo todos os sistemas inteligentes criados e desenvolvidos, desde a primeira linha de código, pela inteligência humana, é necessário haver uma padronização na linha de conduta a ser seguida por esses programadores. Assim, os erros são reduzidos e os escopos são aumentados. Casos como a inteligência artificial da Microsoft que reproduziu comentários preconceituosos e sexistas no Twitter devem servir de exemplo. Assim, esses erros não se repetem e podem ser levados em consideração no futuro.

Só assim a Inteligência Artificial e os robôs deixarão de ser vistos com desconfiança, garantindo segurança e conforto para a humanidade, como é de seu propósito.