Perspectivas sobre a ética e o direito aplicados no desenvolvimento e na interação com a inteligência artificial

Priscila Meireles de Sousa – Graduada em Direito pela UFSC; Especialista em Direito Processual Civil pela Faculdade Damásio, e em Direito de Família e Sucessões pela Faculdade CESUSC; Coautora, em conjunto com a MSc. Melissa Ourives Veiga, do artigo intitulado “A celebração, por casais, de contratos de reprodução assistida: O estabelecimento de cláusulas afetas à garantia dos Direitos das Famílias e Sucessório”, publicado pela Revista Nacional de Direito de Família e Sucessões, da Editora Magister, Ano VIII, n. 48, maio/jun 2022.

 

Sumário: 1 Introdução. 2 O desenvolvimento da Inteligência Artificial (IA). 3 A ética na inteligência artificial (IA): importância e implicações. 4 O direito na Inteligência Artificial (IA): importância e novos horizontes. 5 Considerações finais. 6 Referências. 7 Notas.

Resumo: Pelo presente artigo se pretende demonstrar a importância e a premência da incidência da Ética e do Direito no âmbito da Inteligência Artificial (IA). Com breve desenvolvimento da temática, passa-se, inicialmente, por exposição histórica da evolução das máquinas inteligentes para, ato seguido, abordar-se as questões éticas que envolvem tanto a sua programação e atuação quanto o próprio comportamento humano em um novo cenário de convivência. Partindo-se do entendimento de que há possibilidade de coexistência futura entre estes novos seres sapientes, dotados de faculdades mentais e motoras semelhantes ou, até mesmo, superiores às dos seres humanos, e a humanidade, reforça-se a necessidade de se conscientizar os profissionais diretamente envolvidos na sua programação acerca da salvaguarda da integridade dos seres vivos e do ambiente que habitam. Igualmente se aventam os limites da consciência robótica e se questionam as suas consequências na consideração do tratamento ético dos humanos perante as máquinas. Ainda que reconhecida a dificuldade de se definir a Ética em aplicações universais, almeja-se, outrossim, chamar a atenção do leitor à impossibilidade de não inserção desse ramo do conhecimento na esfera da IA, inclusive em consideração aos exemplos atualmente vivenciados. Ressalta-se, finalmente, o fundamental papel do Direito, pelo qual oportunizada a análise da possibilidade de se regulamentar a matéria em caráter universal ou, na existência de barreiras diplomáticas e legais, em âmbito regional, bem como de se estabelecer as técnicas necessárias à concretização desta mesma matéria. Para a elaboração do artigo, foram realizadas pesquisas bibliográfica e normativa.

Palavras-chave: Inteligência Artificial. Filosofia. Ética. Roboética. Direito.

 

 1 INTRODUÇÃO

O artigo ora exposto, conforme alhures delineado, tem por horizonte o desenvolvimento de um estudo filosófico e jurídico acerca dos limites (éticos e legais) da programação da IA e de sua interação com os seres humanos, panorama este que, embora atualmente não se apresente como efetiva ameaça aos seres vivos, em alguns anos poderá se transmudar em realidade e deve, desde já, ser abordado com a devida seriedade. Não mais se trata, unicamente, de discussões afetas à ficção científica, e estudiosos já se pronunciam acerca da problemática a ser enfrentada.

A importância de se discutir o tema em destaque ganha principal respaldo na futura possibilidade de se programar máquinas capazes de atuar por faculdades “mentais” e motoras semelhantes às dos seres humanos, ou seja, de estabelecer seus próximos passos com considerável grau de liberdade, baseado em um amplo leque de possibilidades e na consideração das variáveis incidentes, passos estes que, eventualmente, podem se distanciar – ou não, a depender do objetivo do criador – do que originariamente se esperava da máquina construída.

Não se pode ignorar o avanço das ciências computacional e robótica nesse sentido, e a Filosofia Ética, acompanhada de eventuais regulamentações e estudos jurídicos, possui protagonismo no palco apresentado. Uma análise da Ética envolvida nas escolhas dos próprios agentes artificiais e dos seres humanos que com eles venham a interagir tem o condão de possibilitar um desenvolvimento tecnológico pautado em um agir ético ou, ao menos, em uma discussão sobre a ética incidente, sempre conectado às preocupações aventadas pela sociedade na qual será inserida a nova IA.

A pertinência do tema, destarte, advém da necessidade de se combater o desenvolvimento de uma IA que possa, eventualmente, entrar em conflito com a existência humana e os demais seres vivos. Trata-se, em último olhar, de levantar questões que não podem restar adormecidas até que cenários distópicos se apresentem, sem se olvidar, no ponto, da importância do Direito para a temática.

Não é demais sublinhar, por fim, que estudar os limites da consciência no âmbito da IA poderá eventualmente permitir, outrossim, uma análise da consistência teórica de um cenário em que seres sinteticamente sapientes seriam desenvolvidos e tratados sob a consideração, igualmente, de seus próprios direitos.

Para fins de pesquisa, utilizou-se o método dedutivo, o qual, nas palavras de Mezzaroba e Monteiro (2009, p. 65-66), em atenção aos princípios da Lógica, “parte de argumentos gerais para argumentos particulares”, com direta relação entre as conclusões formais delineadas e as premissas previamente estabelecidas. Outrossim, o estudo contou com levantamentos bibliográficos e normativos concernentes ao seu objeto.

 

 2 O DESENVOLVIMENTO DA INTELIGÊNCIA ARTIFICIAL (IA)

Em inicial exposição do tema, delineia-se, sumariamente, a evolução histórica da IA, que possui no computador um fiel representante. Conforme os cientistas Stuart Russel e Peter Norvig, a computação desenvolveu-se no período da Segunda Guerra Mundial, em três países envolvidos com o respectivo cenário. Destacam-se, aqui: (a) o primeiro computador operacional, de Heath Robinson, concernente em uma máquina eletromecânica projetada pela equipe de Alan Turing no ano de 1940, tendo por objetivo a decodificação das mensagens alemãs; (b) o primeiro computador programável, denominado Z-3, e a primeira programação de alto nível, apresentados por Konrad Zuse na Alemanha do início da década de 1940; e, (c) o primeiro computador eletrônico, de nome ABC, projetado por John Atanasoff e Clifford Berry no ambiente universitário dos Estados Unidos no período compreendido entre 1940 e 1942. Consigna-se, entretanto, que a influência dos atuais sistemas computacionais, o chamado ENIAC, teve origem em um projeto militar secreto, desenvolvido na University of Pennsylvania e que contou com a colaboração de John Mauchly e John Eckert. [1]

Abrem-se parênteses importantes, no ponto, para se discorrer sobre o “teste de Turing”, projetado por Alan Turing em 1950 com o intuito de caracterizar a inteligência computacional. Nos termos definidos por Turing, passará em seu teste o computador que, após responder determinadas perguntas feitas por um humano, causar neste dúvida quanto à sua natureza (do interrogado), ou seja, se pessoa ou máquina artificial. Os requisitos do vencimento da inteligência simulada, nesse caso, traduzem-se em: (a) comunicação por linguagem natural, de modo a possibilitar exitosa interação; (b) capacidade de armazenamento do que sabe ou “escuta”; (c) raciocínio necessário à utilização das informações armazenadas para formulação de respostas e conclusões inéditas; e (d) possibilidade de adaptação a novos cenários e de ultrapassagem dos padrões inicialmente estabelecidos. Para aprovação, contudo, no “teste de Turing total”, necessitará o computador da capacidade de percepção de objetos e da robótica, para fins de manipular esses objetos e realizar movimentos. [2]

Em seguimento ao desenrolar histórico da IA, cumpre asseverar que a primeira abordagem nessa seara específica deve-se a Warren McCulloch e Walter Pitts, situada em 1943. Tomaram os desenvolvedores, como pontos de partida, ideias da fisiologia e do funcionamento neural, a estrutura da lógica formal proposta por Russel e Whitehead e, por fim, a teoria computacional exposta por Alan Turing. Construídas redes neurais artificiais, a troca entre os estados “ligado” e “desligado” decorria do estímulo de determinado número de “neurônios” vizinhos, sendo que os conectivos da lógica, como “e, ou, não”, podiam ser inseridos na estrutura de redes simples do sistema. Na mesma linha, McCulloch e Pitts, assim como Donald Hebb, o qual apresentou regra de atualização para modificação da intensidade das conexões neurais (“aprendizado de Heeb”), sendo, ainda, um modelo influente na área. [3]

No ano de 1950, Marvin Minsky e Dean Edmonds, estudantes de Harvard, desenvolveram o primeiro computador dotado de rede neural, denominado SNARC. Minsky, ao aprofundar, posteriormente, os seus estudos na esfera de redes neurais computacionais, provou teoremas que indicavam os limites da respectiva área de atuação. [4]

Pode-se dizer que o início da IA foi permeado por certo pessimismo, relacionado à possibilidade de seu aprimoramento contínuo. Com fulcro na realidade da programação computacional da época, os profissionais atuantes na área ativeram-se a um pensamento mais modesto quanto ao limite da capacidade de uma máquina. Esse cenário, em que aos poucos foi sendo ampliado o horizonte da IA, restou apelidado por John McCarthy de “olhe, mamãe, sem as mãos!”.  [5]

No período relatado, de estudos de sistemas capazes de abalar referido pessimismo, o filósofo Nick Bostrom destaca êxitos como: (a) o Logic Theorist, o qual obteve êxito na comprovação da maioria dos teoremas expostos no segundo capítulo do Principia Mathematica, de autoria de Whitehead e Russel, e acabou superando uma prova original com a produção de outra mais elegante, o que demonstrou que a inteligência computacional é capaz não somente de efetuar cálculos numéricos, como, também, de estruturar deduções e apresentar provas lógicas; (b) o General Problem Solver, que poderia resolver uma diversidade de problemas que lhe eram submetidos; (c) o robô Shakey, pelo qual se comprovou que uma máquina poderia se utilizar do raciocínio lógico para planejar e realizar movimentos físicos; e, (d) o programa eliza, que poderia simular a abordagem de um psicoterapeuta rogeriano. [6]

Nas décadas que se seguiram, foram desenvolvidos sistemas aptos, por exemplo, a compor músicas com o mesmo estilo de compositores clássicos, superar diagnósticos clínicos efetuados por médicos recém-formados, dirigir carros autonomamente, apresentar ideias patenteáveis e, até mesmo, contar piadas, ainda que questionável o nível de humor alcançado. [7] Problemas, contudo, no aprimoramento da inteligência elaborada, a exemplo da “explosão combinatorial” – que exige da máquina, fundamentada na busca exaustiva, seja reconhecida massiva representação de possibilidades -, da insuficiência do sistema para lidar com incertezas, das dificuldades na definição de representações simbólicas, da escassa fonte de informações e das limitações no desempenho do hardware, passaram a ser reconhecidos pelos envolvidos na seara, reconhecimento este que se intensificou por volta da metade da década de 1970 e esteve ligado ao que se pode chamar de “inverno da IA”, caracterizado pela redução dos investimentos e pela intensificação do ceticismo. [8]

O (primeiro) inverno da IA, entretanto, cedeu lugar a uma primavera trazida pelos japoneses na década de 1980, os quais, por meio de parceria público-privada, engajaram-se com intensidade no desenvolvimento de sistemas computacionais de quinta geração, consubstanciados na proposta de estruturação de uma nova plataforma à IA. [9] A iniciativa nipônica foi seguida por outros países, a exemplo dos Estados Unidos, os quais fundaram consórcio de pesquisa no intuito de garantir a competitividade na área (o Microeletronics and Computer Technology Corporation – MCC), e da Inglaterra, que restabeleceu subsídio anteriormente revogado. [10]

Importante destacar, todavia, que os resultados ambiciosos dos projetos decorrentes dessa nova geração de desenvolvimento (inserido, aqui, o pioneiro Japão) acabaram por não ser alcançados e uma nova fase de pessimismo alcançou o âmbito da IA. O investimento nessa tecnologia, destarte, passou a ser evitado nas esferas do empreendimento e, até mesmo, das universidades. [11]

O renascimento da IA foi possível, posteriormente, com o surgimento de novos estudos de aprimoramento do que se convencionou chamar Good Old-Fashioned Artificial Intelligente (GOFAI). Lidou-se, a partir de então, com a estruturação de um sistema mais orgânico, exemplificado na denominada “degradação preciosa”, em que, no lugar de entrar em total falência de funcionamento, na ocorrência de pequena avaria a uma rede neural específica uma máquina apresentaria, apenas, uma suave corrupção na sua capacidade. As redes neurais, outrossim, passaram a ter a capacidade de aprender com experiências, o que possibilitou melhora na apreensão de padrões e na identificação de problemas de classificação. [12]

O fim do inverno da sapiência computacional igualmente contou com o desenvolvimento da programação genética, abordada sob um viés evolucionista. Embora no mundo acadêmico não tenha se destacado, referida corrente de pensamento tornou-se amplamente popular, referindo-se à possibilidade de se criar novas soluções por meio de mutações ou recombinações das informações existentes. [13]

A evolução dos sistemas de IA, tradicionalmente, é permeada por escolhas que implicam, simultaneamente, melhoras e perdas do ponto de vista matemático. No particular, tem-se por ideal o agente bayesiano perfeito, detentor da capacidade de otimizar, estatisticamente, os dados inseridos. Há se asseverar, no entanto, que a programação deste agente torna-se impossível na medida em que a demanda necessária ultrapassaria a capacidade das máquinas físicas atuais. Nesse cenário, a busca pelo aprimoramento da IA é fulcrada na escolha de determinados direcionamentos em detrimento de otimizações e generalizações, voltada à aproximação do ideal bayesiano e, consequentemente, ao limite da qualidade que se pode alcançar na realização de escopos específicos. [14]

Conforme entendimento de alguns fundadores da IA, dentre estes John McCarthy, Marvin Minsky, Nils Nilsson e Patrick Winston, o progresso da área deveria voltar-se ao desenvolvimento de máquinas completas. Destacam-se, aqui, as esferas de pesquisa da “IA de nível humano” (HLAI, em inglês) e da “inteligência geral artificial” (AGI, em inglês), esta última relacionada à procura de um algoritmo universal dotado da capacidade de aprender e se adaptar em qualquer ambiente e originada dos estudos de Ray Solomoff (1964). No ano de 2008, a “AGI” contou com conferência própria e a organização do Journal of Artificial General Intelligence. [15]

No âmbito da criação de uma máquina sapiente “completa”, destacam-se, outrossim, os estudos de Allen Newell, John Laird e Paul Rosenbloom dirigidos ao SOAR, representante mais famoso da estrutura completa de um agente. Atualmente, a Internet traduz-se em significativo ambiente de inserção da IA, situação constatável na disseminação da utilização do sufixo “bot” na linguagem referente a esse meio e, igualmente, na estruturação de ferramentas de pesquisa, recomendação e construção de páginas eletrônicas. [16]

Cumpre destacar, na oportunidade, importantes exemplos do alcance da IA nos últimos anos, tais como veículos robóticos, reconhecimento de voz, planejamento (autônomo e logístico) e robótica, com incidência em variadas áreas. [17]

No que diz ao estado da arte, encontram-se sob holofote conquistas nos campos: (a) dos jogos, em que largamente superados campeões humanos; (b) da audiologia, com a elaboração de aparelhos que filtram ruídos externos; (c) automobilístico, com aparelhos capazes de apresentar mapas e rotas de navegação aos motoristas; (d) da música e da literatura, que contam com sistemas de recomendação fundados em prévias compras e avaliações do interessado; (e) da medicina, que conta com máquinas capazes de auxiliar em cirurgias, no diagnóstico do câncer de mama, no planejamento de determinados tratamentos e no estudo de resultados apresentados por eletrocardiogramas; (f) do lazer, já existindo o que se pode chamar de “robôs de estimação”; (g) de atividades variadas, com robôs atuando em limpezas e no corte de gramas; (h) do salvamento, havendo robôs especializados em resgate; (i) da indústria, com representação de mais de um milhão de robôs em atividade; e, (j) do reconhecimento de voz e de escritas (à mão e à máquina), a exemplo, respectivamente, de assistentes como a Siri (Apple) e de aplicativos voltados a triagem de correspondência e digitalização de antiga documentação. Não há se olvidar, ademais, as aplicações nas esferas do reconhecimento facial, da comprovação de teoremas, da atuação militar e inteligente e da própria Internet, a qual teria no Google, a princípio, o maior sistema de IA já desenvolvido. [18]

Em complemento, sublinham-se os trabalhos de pesquisa desenvolvidos por Elon Musk, o qual, CEO da Tesla e entusiasta da evolução tecnológica, em 2022 apresentou ao mundo o robô (protótipo) denominado “Optimus”, sendo que “o objetivo com o androide é utilizar o sistema Autopilot, que permite a autonomia dos carros Tesla, e iniciar uma produção em alta demanda”; um vídeo sobre o humanoide em comento demonstrou a sua capacidade, por exemplo, de “carregar caixas, regar plantas e pegar objetos mais estreitos”. [19]

Igualmente, destaca-se a recente revolução perpetrada pelo chatbot “ChatGPT”, cuja interação com o usuário, em apertada síntese, decorre de aprendizado de máquina e oferece resultados originais – mas, não necessariamente “corretos”, o que requer a devida cautela do usuário – a pesquisas e pedidos diversos que lhe são lançados – a exemplo, até mesmo, da elaboração de poesias e letras musicais. A grandeza e a profundidade desse novo chatbot, com todas as possibilidades e impactos potenciais – sejam positivos ou negativos -, contudo, notadamente em razão de sua popularização recente e utilização de IA com tecnologia de machine learning, mostram-se, ao menos atualmente, imensuráveis, nada obstante as análises já em andamento.

Sobre o futuro da IA e seu aprimoramento, constata-se a existência de opiniões diversas, que variam desde o tempo para se alcançar determinados objetivos à forma que poderá assumir a tecnologia em comento. Pesquisas oportunamente feitas junto a profissionais de destaque na área e abordadas pelo filósofo Nick Bostrom, embora devam ser analisadas com a devida cautela, dado que se tratam de amostras pequenas e não consideram as opiniões da totalidade dos especialistas, podem lançar alguma luz sobre o momento de alcance da denominada “inteligência de máquina de nível humano” (HLMI, em inglês), entendida como o potencial da máquina de exercer a maior parte das profissões dos seres humanos com, no mínimo, a mesma habilidade destes. [20]

De uma tabela em que expostos dados de quatro diferentes pesquisas, possível se extraiam as seguintes medianas, relacionadas à probabilidade de se alcançar a HLMI dentro de determinados períodos, considerando-se a inexistência de futuras interferências negativas na evolução do conhecimento científico: (a) 10% (dez por cento) até o ano de 2022; (b) 50% (cinquenta por cento) até o ano de 2040; e, (c) 90% (noventa por cento) até o ano de 2075. [21]

Importante destacar, no ponto, sugestão de Nils J. Nilsson no sentido de se substituir o “teste de Turing” por algo que o autor denominou “teste do emprego” (tradução livre da expressão “employment test”, em inglês). Para que passassem neste desafio, as máquinas deveriam ser capazes de exercer as profissões dos seres humanos, e o caminho ao desenvolvimento da HLMI seria mensurado, assim, de acordo com o leque de profissões que poderiam ser aceitavelmente exercidas por aquelas. [22]

A combinação dos resultados obtidos nas diferentes pesquisas igualmente aponta a probabilidade de 10% (dez por cento) quanto ao alcance da superinteligência artificial dentro de dois anos após exitosa a HLMI, e de 75% (setenta e cinco por cento) dentro de trinta anos após a HLMI. Questionados os entrevistados, outrossim, sobre os impactos da HLMI na humanidade, pôde-se obter as seguintes medianas, relativas à combinação das respostas fornecidas em todas as pesquisas: (a) pouco mais de 20% (vinte por cento) creem em impacto “extremamente bom”; (b) pouco menos de 40% (quarenta por cento), em “relativamente bom”; (c) cerca de 15% (quinze por cento), em “mais ou menos neutro”; (d) cerca de 15% (quinze por cento); em “relativamente ruim”; e, (e) quase 10% (dez por cento), em “extremamente ruim”, com “catástrofe existencial”. [23]

As informações apresentadas nessa primeira parte do estudo, se não permitem se extraia a certeza da possibilidade e do momento do desenvolvimento de IA com capacidades e habilidades humanas ou super-humanas, que venham a interagir conosco em um futuro breve ou remoto, logram êxito na demonstração da importância e da premência da discussão do tema sob o ponto de vista da Ética e do próprio Direito, mormente se considerarmos que, na própria atualidade, conforme oportunamente demonstrado, as máquinas inteligentes realizam atividades que requerem programação cautelosa (a exemplo dos veículos robóticos) e mesmo uma regulamentação basilar para guiar a suas respectiva produção e atuação no mercado.

Não é demais lembrar que, ainda se questione a pertinência de se projetar máquinas detentoras de inteligência humana, havendo defesa do que se pode chamar de “Inteligência Artificial fraca” (tradução livre da expressão “weak AI”, em inglês), a primeira situação permanece sendo o objetivo de alguns pesquisadores da área. [24]

Faz-se a seguir, destarte, breve exposição sobre algumas discussões que podem advir, primeiramente, da interação entre os ramos da Ética e da IA, ramos estes que, percebe-se, não podem caminhar separados. Após, discorrer-se-á sobre as implicações da temática no âmbito jurídico.

 

 3 A ÉTICA NA INTELIGÊNCIA ARTIFICIAL (IA): IMPORTÂNCIA E IMPLICAÇÕES

Em sua obra “Eu, Robô”, de 1950, Issac Asimov adianta as preocupações relativas à programação da IA. Apresenta o autor, então, as chamadas “três Leis da Robótica”, assim expostas: (a) “um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano venha a ser ferido”; (b) “um robô deve obedecer às ordens dadas pelos seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei”; e, (c) “um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou com a Segunda Lei”. [25]

A ficção científica surge na tentativa do ser humano de se desvencilhar, pela imaginação, de suas limitações naturais. O que anteriormente poderia ser verificado na abordagem de outros elementos do desconhecido, para o desenrolar da narrativa das personagens apresentadas, transmudou-se na ficção científica em função da ampliação dos campos do conhecimento. Mantida, no entanto, a central do gênero, pode-se afirmar que textos mais antigos, como “O Golem” e “Frankenstein”, respectivamente, dos séculos XVII e XIX, permanecem atuais. [26] A atualidade da obra de Mary Shelley pode ser verificada, por exemplo, quando se analisa a possibilidade de criação de máquinas que possam se rebelar contra seus programadores humanos, considerados motivos diversos, a exemplo do próprio abandono “sentimental”. Asimov, percebe-se, já em meados do século XX aventava, especificamente, questões dessa espécie, e não se pode olvidar a importância de obras como as destacadas para os estudos do pensamento humano sobre o tema ora exposto e das hipóteses dos cenários futuros da humanidade em convívio com a IA.

Para além da ficção científica, contudo, e partindo-se do ritmo da evolução do conhecimento computacional e robótico, conforme alhures exposto, pode-se compreender, conforme assentam os especialistas Omar Danilo Castrillón, Maria del Pilar Rodriguez Córdoba e Juan David Leyton Castaño, que a ética insere-se nesse novo contexto ante a necessidade de se conscientizar as pessoas envolvidas com a programação da IA acerca das implicações na sociedade de suas criações. Permite-se discutir, por exemplo, as consequências da IA no âmbito da geração e manutenção das oportunidades de emprego, bem como a necessidade das novas máquinas sapientes não macularem, em atenção a determinados códigos de conduta, a integridade dos seres humanos, agindo em consonância com as normas que regem os últimos. [27]

Um exemplo recente dessa preocupação pode ser encontrado na manifestação de Elon Musk e mais centenas de especialistas sobre os avanços de sistemas de IA, com consequente pedido de “suspensão” temporária de determinadas pesquisas:

O bilionário Elon Musk e centenas de especialistas assinaram, nesta quarta-feira (29), um apelo para uma pausa de seis meses na pesquisa sobre inteligências artificiais (IAs) mais potentes do que o GPT-4, o modelo da OpenAI lançado este mês, alertando para os “profundos riscos para a humanidade”.

Na carta publicada no site futureoflife.org, eles pedem uma pausa até que sejam definidos modelos de governança. Isso incluiria a criação de órgãos regulatórios, de meios de supervisão de sistemas e de ferramentas que ajudem a distinguir o que é criado por inteligência artificial.

O grupo também pede a responsabilização por danos causados pela IA e a criação de instituições que possam fazer frente às “dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA causará”.

Musk é um dos cofundadores da OpenAI, criadora do robô ChatGPT, que usa inteligência artificial para ‘pensar’ como seres humanos ao criar textos. O empresário presidiu a empresa até 2018 e, hoje, afirma que não tem nenhuma participação ou controle sobre ela.

Além de Musk, a carta também foi assinada por executivos como Evan Sharp, cofundador do Pinterest, e Jaan Tallinn, cofundador do Skype.

A lista inclui ainda o cofundador da Apple, Steve Wozniak; membros do DeepMind, laboratório de IA do Google, que lançou o robô Bard para competir com o ChatGPT; engenheiros da Microsoft, que fez investimento bilionário na OpenAI, além de acadêmicos e especialistas em IA.

“Nos últimos meses, vimos os laboratórios de IA se lançando em uma corrida descontrolada para desenvolver e implantar cérebros digitais cada vez mais potentes que ninguém, nem mesmo seus criadores, podem entender, prever, ou controlar, de forma confiável”, diz a carta.

“Sistemas poderosos de IA devem ser desenvolvidos apenas quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis”, completa.

Sam Altman, diretor da OpenAI, desenvolvedora do ChatGPT, reconheceu ter “um pouco de medo” de que sua criação seja usada para “desinformação em larga escala ou para ciberataques”. [28]

O aprofundamento dos estudos da relação entre a Ética e a IA, eventualmente denominado “Roboética”, diz respeito à análise dos possíveis cenários advindos da convivência dos robôs ou máquinas inteligentes com a sociedade e o meio ambiente. Considera-se, no particular, que estes novos seres artificiais acabam se traduzindo em agente éticos, cuja tomada de decisões deve guiar-se por faculdades morais. [29]

Enquanto existem agentes éticos implícitos, consubstanciados em máquinas programadas para combater, efetivamente, atividades imorais, há, por outro lado, os agentes éticos explícitos, IA que escolhe a melhor ação com fundamento em princípios éticos programados (algoritmos aptos a solucionar dilemas de ordem ética). Deve-se questionar, no entanto, as responsabilidades a serem inseridas nas novas máquinas, e a que ponto dependeríamos de sua existência, daí a importância de possuírem os desenvolvedores da área sólido comprometimento ético, voltado à preservação dos seres humanos, da sociedade e do meio ambiente. [30]

Pensamentos de ordem futurista possibilitam a discussão de hipóteses mais específicas, a exemplo da criação de associações pelos próprios novos agentes éticos, do reconhecimento dessa união na esfera da legalidade e, consequentemente, do comportamento do ser humano perante o fruto de sua criação. Maltratar, tornar obsoleto e levar à “morte” um agente ético artificial passariam a ser ações eticamente condenáveis ou, do contrário, não poderiam ensejar nenhum julgamento de ordem moral? [31]. Igualmente se questiona, por exemplo, qual seria o limite de amadurecimento dos “sentimentos” e “sensações” desses agentes. Poderão reclamar os mesmos direitos concedidos aos seres humanos? O seu “pensamento” poderá ser igualado, eventualmente, à forma de cognição humana? [32]

O desenvolvimento da IA ainda não conta com delineações éticas específicas, de forma que os estudos sobre o assunto devem ser levados ao âmbito do desenho, da produção e do consumo dessa nova ciência, sendo iniciados por meio do estabelecimento de códigos de conduta a serem seguidos pelos próprios seres humanos envolvidos. A programação das máquinas fundada em determinados preceitos éticos, para além daquela que visa, unicamente, à imitação do ser humano e de suas habilidades, é situação que passa a protagonizar o palco da evolução da robótica e da computação. [33]

Em época futura, eventualmente, o processo de tomada de decisões pelo ser humano poderá reduzir-se aos aspectos de maior importância, dado o alto nível que a automatização dos sistemas poderá alcançar. Devemos, desse modo, atentar-nos à constante evolução tecnológica e às suas reais consequências, que podem incluir a extinção da vida humana. [34]

Não se pode ignorar, entretanto, as dificuldades inerentes à definição de valores éticos na programação da IA, enraizadas na própria análise da possibilidade de sua incidência universal na sociedade como um todo.

Não obstante a problemática destacada, ratifica-se que, à medida que trazemos ao mundo prático a importância da tomada de decisões por parte dos computadores, a exemplo dos carros por estes pilotados, os profissionais diretamente envolvidos em sua programação devem considerar as implicações éticas. Ainda não tenham conhecimento, já lidaram ou lidarão com esta questão. [35]

Conforme o filósofo Hans Jonas, citado por Zygmunt Buaman, a evolução da sociedade humana e das consequências de seus atos não são acompanhadas, em mesmo ritmo, pelo desenvolvimento do pensamento moral, e embora o surgimento de novos poderes exija, por questão vital ao ser humano, o estabelecimento de uma nova Ética, estes mesmos poderes impediriam, nas esferas teórica e prática, a interferência do ponto de vista ético. Tal tendência deve ser combatida, e um novo imperativo categórico, a predizer que as ações dos indivíduos devem se pautar na efetiva sobrevivência da vida humana, poderia ser necessário. [36] Apesar de encontrar posteriores críticas no pensamento de Bauman, o qual destaca, por exemplo, a dificuldade de se firmar o imperativo destacado (com, p. ex., a inexistência de contradição racional em sua violação e a impossibilidade de se antever quais as realizações da tecnociência não se coadunariam com a manutenção da vida humana), o entendimento exarado permite se reconheça o perigo de se ignorar as implicações do desenvolvimento científico destituído de um pensamento ético e as dificuldades que serão eventualmente enfrentadas com a própria resistência por parte dos novos poderes.

Nesse viés, concomitantemente com a complexa análise filosófica e conceitual da Ética, deve ser aprofundado o estudo do modo pelo qual esse ramo da Filosofia poderia ser efetivamente inserido na programação da IA.

Poder-se-ia programar a máquina, por exemplo, em formato tal que evitasse resultados antiéticos. Para tanto, criar-se-ia software capaz de dar amparo ao comportamento ético, para além da codificação de máximas específicas da Ética. [37] Retorna-se, aqui, ao agente ético explícito, alhures oportunamente descrito.

No contexto definido, portanto, a máquina atua em consonância com comportamentos éticos implicitamente decorrentes de seu código original, ou consegue evitar, igualmente, eventuais resultados antiéticos. A IA programada dessa maneira, não descartadas as limitações incidentes, seria detentora de determinadas “virtudes”. [38]

Como exemplo de agente ético implícito, por sua vez, cita-se o piloto automático de um avião. Se há comprometimento com o destino do passageiro, o avião deve neste chegar com o tempo e a segurança necessários, resultados éticos que devem orientar a programação do piloto automático. Há nesse conjunto, outrossim, os softwares da área da farmácia, que analisam a interação entre as drogas e, considerando-se que os deveres dos médicos e farmacêuticos, tanto de ordem ética quanto legal, devem se ater ao fato de que os remédios devem surtir efeitos mais positivos que negativos no paciente, fornecem dados que colaboram nessa verificação. [39]

A despeito do fato de que as hipóteses de agentes éticos explícitos acabam sendo vagos, possível se note o aperfeiçoamento do tema, a exemplo da consideração, por Jeroen van den Hoven e Gert-Jan Lokhorst, de três espécies de lógica avançada, que permitiriam consolidar a interação entre a Ética e as máquinas, quais sejam: (a) lógica deôntica, para definições de permissões e obrigações; (b) lógica epistêmica, para definições de crenças e conhecimento; e, (c) lógica da ação, para definições de ações. [40]

Um agente ético completo, diga-se, seria tanto capaz de efetuar julgamentos éticos quanto de justificá-los, como ocorre, em regra, com o adulto humano. Para alguns, contudo, uma máquina não pode ultrapassar determinadas barreiras, existindo uma diferença ontológica essencial entre essa e os seres humanos. Deve-se ponderar, todavia, que o fato destes agentes artificiais não possuírem, efetivamente, desejos livres e próprios, não afasta seu caráter ético em determinas situações nem a necessidade de serem estipuladas limitações para suas ações. [41]

Não se pode sequer afirmar, ademais, com a certeza necessária, que sempre faltarão às máquinas inteligentes a consciência e a vontade livre inerentes ao ser humano. Ressalta-se, aqui, o pensamento de John Searle, pelo qual os humanos seriam uma espécie de máquina, apenas não na forma de um computador sintético. [42]

O filósofo James H. Moor expõe ao menos três razões pelas quais se torna importante a consideração da Ética no desenvolvimento dos agentes éticos explícitos: (a) desejamos que as máquinas nos tratem bem; (b) dado o aprimoramento das capacidades das máquinas na facilitação da vida do ser humano, tornando-a mais agradável, há uma tendência de se permitir maior autonomia àqueles agentes, do que se colhe que, quanto maior o poder que lhes é concedido, maior deve ser a sua natureza ética; e, (c) a programação e o ensino das máquinas voltados à Ética ajudarão os próprios seres humanos a melhor compreender esse ramo do conhecimento. [43]

Moor igualmente elenca, por outro lado, três motivos pelos quais não se poderia haver muito otimismo no que diz respeito ao desenvolvimento de agentes éticos explícitos, conforme segue: (a) primeiramente (conforme acima reforçado), há uma compreensão limitada do que venha a ser uma “teoria ética apropriada”; (b) em segundo lugar, não obstante o avanço da área, o conhecimento acerca das máquinas ainda necessita evoluir: o desenvolvimento da “máquina criança” de Turing, por exemplo, encontra-se longe do atual cenário científico; e, (c) a programação dessas máquinas envolve tanto questões éticas quanto epistemológicas. O autor exemplifica esse último aspecto com o fato de que, embora seja a IA programada para não causar danos aos seres humanos, tal comando não terá eficácia se essa não tiver o entendimento do que significa, de fato, causar danos na realidade. Mister o destaque da conclusão de Moor, no entanto, e ainda que consideradas as dificuldades apontadas, de se aprimorar os estudos do importante tema, para a sua devida evolução. [44]

Apresenta-se, por fim, pensamento que critica a busca pelo estabelecimento de uma “ética padronizada” no âmbito da programação da IA. Contestando possibilidade de se construir uma Ética universal, o cientista Roman V. Yampolskiy propõe o problema da programação de mecanismos de segurança nos casos de autopropagação dos agentes. Salienta o autor a necessidade de se garantir que tais mecanismos inicialmente inseridos nas máquinas sejam mantidos nas próximas gerações que dessas descendam. Ter-se-ia por imprescindível, ademais, que tais inteligências fossem capazes de comprovar seu nível de segurança quando necessários exames externos. Caso não se atente a uma evolução desenfreada dessas novas máquinas, a efetuarem upgrades não seguros, o resultado poderia ser catastrófico. [45]

Yampolskiy defende, nesse sentido, que determinadas pesquisas do ramo da IA deveriam ser restringidas, e a denominada “inteligência geral artificial” (AGI, em inglês) habitaria o campo da antiética ante o fato de, primeiramente, seria capaz de tornar prescindíveis as atividades exercidas pelos homens e levá-los à extinção, e, em segundo lugar, sua consciência poderia equiparar-se à humana, quando seria capaz de sofrer e, consequentemente, experimentos que lhe fossem direcionados passariam a ser antiéticos. [46] O questionamento do cientista Bill Joy é trazido, então, a lume: “o futuro necessitará de nós?”. [47]

 

 4 O DIREITO NA INTELIGÊNCIA ARTIFICIAL (IA): IMPORTÂNCIA E NOVOS HORIZONTES

Por todo o exposto no capítulo anterior, possível se conclua que a análise do desenvolvimento da IA e de sua interação com o ser humano perpassa, necessariamente, pelos caminhos da Ética. Não obstante a reconhecida dificuldade de eleição de determinados valores em detrimento de outros, conforme bem se depreende do aprofundamento daquele ramo do conhecimento, não se pode ignorar a urgência do assunto e a pertinência de se estabelecer sólidos estudos filosóficos a respeito. O Direito, a seu turno, surge, de forma complementar, como ramo do conhecimento capaz de analisar a possibilidade de se regulamentar a matéria em caráter universal ou, na existência de barreiras diplomáticas e legais, em âmbito regional, bem como de se estabelecer as técnicas necessárias à efetivação da matéria.

Ainda se queira tomar como exagero a previsão de que a programação arbitrária das novas máquinas poderia corromper a sua convivência com a humanidade de tal modo que as consequências descortinar-se-iam, eventualmente, nos piores cenários distópicos da ficção científica, e se pense em impactos de “menor intensidade”, devemos nos atentar à qualidade de vida (orgânica e sintética) que será ofertada na interação entre estes novos seres sapientes e o mundo ao seu redor, considerados, por certo, os seres vivos e o meio ambiente do qual estes dependem.

Nesse passo, convém trazer ao presente trabalho algumas iniciativas nacionais e internacionais que vão ao encontro de uma regulamentação inicial do tema, situação apta a demonstrar, ademais, a crescente preocupação dos estudiosos com os avanços da Inteligência Artificial e os seus consequentes impactos sociais.

No Brasil, por exemplo, com foco na orientação da atuação do Poder Judiciário neste novo cenário, em agosto de 2020 o Conselho Nacional de Justiça (CNJ) publicou a Resolução n. 332 [48], pela qual estabelecidas diretrizes referentes à ética, à transparência e à governança na produção e no uso da Inteligência Artificial. Podem ser destacados, neste caso, os seguintes dispositivos, a evidenciarem o preventivo olhar do órgão sobre o assunto, de modo a modular o espectro de possibilidades no âmbito da interação dos campos jurídico e de inteligência artificial:

[…]

Art. 4º No desenvolvimento, na implantação e no uso da Inteligência Artificial, os tribunais observarão sua compatibilidade com os Direitos Fundamentais, especialmente aqueles previstos na Constituição ou em tratados de que a República Federativa do Brasil seja parte.

[…]

Art. 7º As decisões judiciais apoiadas em ferramentas de Inteligência Artificial devem preservar a igualdade, a não discriminação, a pluralidade e a solidariedade, auxiliando no julgamento justo, com criação de condições que visem eliminar ou minimizar a opressão, a marginalização do ser humano e os erros de julgamento decorrentes de preconceitos.

1º Antes de ser colocado em produção, o modelo de Inteligência Artificial deverá ser homologado de forma a identificar se preconceitos ou generalizações influenciaram seu desenvolvimento, acarretando tendências discriminatórias no seu funcionamento.

Verificado viés discriminatório de qualquer natureza ou incompatibilidade do modelo de Inteligência Artificial com os princípios previstos nesta Resolução, deverão ser adotadas medidas corretivas.

3º A impossibilidade de eliminação do viés discriminatório do modelo de Inteligência Artificial implicará na descontinuidade de sua utilização, com o consequente registro de seu projeto e as razões que levaram a tal decisão.

[…]

Art. 20. A composição de equipes para pesquisa, desenvolvimento e implantação das soluções computacionais que se utilizem de Inteligência Artificial será orientada pela busca da diversidade em seu mais amplo espectro, incluindo gênero, raça, etnia, cor, orientação sexual, pessoas com deficiência, geração e demais características individuais.

1º A participação representativa deverá existir em todas as etapas do processo, tais como planejamento, coleta e processamento de dados, construção, verificação, validação e implementação dos modelos, tanto nas áreas técnicas como negociais.

2º A diversidade na participação prevista no caput deste artigo apenas será dispensada mediante decisão fundamentada, dentre outros motivos, pela ausência de profissionais no quadro de pessoal dos tribunais.

3º As vagas destinadas à capacitação na área de Inteligência Artificial serão, sempre que possível, distribuídas com observância à diversidade.

4º A formação das equipes mencionadas no caput deverá considerar seu caráter interdisciplinar, incluindo profissionais de Tecnologia da Informação e de outras áreas cujo conhecimento científico possa contribuir para pesquisa, desenvolvimento ou implantação do sistema inteligente.

Art. 21. A realização de estudos, pesquisas, ensino e treinamentos de Inteligência Artificial deve ser livre de preconceitos, sendo vedado:

I – desrespeitar a dignidade e a liberdade de pessoas ou grupos envolvidos em seus trabalhos;

II – promover atividades que envolvam qualquer espécie de risco ou prejuízo aos seres humanos e à equidade das decisões;

III – subordinar investigações a sectarismo capaz de direcionar o curso da pesquisa ou seus resultados.

[…] (sem destaque no original)

Ao tempo, destarte, que se objetiva utilizar a IA para alcançar decisões judiciais livres de preconceitos e erros humanos que possam prejudicar os jurisdicionados, concedendo-se mais segurança jurídica aos casos sub judice, igualmente é lançada importante luz sobre a necessidade de desenvolvimento e implementação dessa tecnologia por equipes diversificadas, de maneira a se reduzir os riscos à dignidade e liberdade humanas. Ou seja, no ato normativo estudado apura-se a devida preocupação com a utilização de uma IA que, eventualmente, possa comprometer a equidade e enveredar por caminhos mais “sombrios”, mesmo quando não se pretendeu, conscientemente, este resultado na programação: aqui, justamente, reside a importância de uma equipe de ampla diversidade – e interdisciplinar – atuante em todas as fases do projeto, com destaque à previsão de responsabilização dos agentes eventualmente envolvidos no desenvolvimento ou na utilização do “sistema inteligente em desconformidade aos princípios e regras estabelecidos nesta Resolução” [49]. No mais, não sendo possível a eliminação do viés discriminatório no modelo de IA desenvolvido, haverá a sua descontinuidade e o registro do projeto e das razões que fundamentaram referida decisão. [50]

Uma das importantes orientações que pode ser colhida do ato normativo em comento e oportunamente utilizada no campo de pesquisa ora analisado diz respeito, portanto, à importância de se trabalhar a IA mediante a participação de um conjunto de pessoas com visões de mundo e conhecimentos diferentes, tendo-se por base uma equipe que se diferencie em “gênero, raça, etnia, cor, orientação sexual, pessoas com deficiência, geração e demais características individuais”, como exposto na Resolução do CNJ.

Ainda na esfera nacional, convém destacar o completo “Relatório Final” elaborado pela Comissão de Juristas que, instituída em 17.02.2022 pelo Ato do Presidente do Senado nº 04/2022, voltou-se à “elaboração de minuta de substitutivo para instruir a apreciação dos Projetos de Lei nºs 5.051, de 2019, 21, de 2020, e 872, de 2021”, os quais “têm como objetivo estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e a aplicação da inteligência artificial no Brasil”. [51] Os projetos legais indicados são de autoria, respectivamente, do Senador Styvenson Valentim, do Deputado Eduardo Bismarck e do Senador Veneziano Vital do Rêgo. [52]

O relatório indicado apresenta ampla cobertura do tema, expondo desde resultados de audiências públicas e seminário internacional realizados pela Comissão até os mais variados estudos das autoridades regulatórias de IA nos países integrantes da Organização para a Cooperação e Desenvolvimento Econômico (OCDE). Cuida-se de aparato documental relacionado ao desenvolvimento da minuta de substitutivo acima indicada, a ser futuramente, caso possível e observados os trâmites do processo legislativo, os quais incluem eventuais adaptações textuais, convertida em lei e estabelecida como marco legal da Inteligência Artificial no país.

Na exposição de motivos da minuta normativa já é possível constatar a preocupação dos juristas em estabelecer uma dupla função ao novo marco legal, pelo qual são regulamentados os direitos da pessoa natural, indubitavelmente afetada – direta ou indiretamente – pelos sistemas de Inteligência Artificial, bem como previstos os mecanismos institucionais necessários (de governança, fiscalização e supervisão) a um sadio desenvolvimento econômico-tecnológico no país. [53]

De forma a se conferir mais didatismo à análise da minuta legal [54], abaixo são elencados pontos de destaque do referido documento, em consonância com a proposta do presente trabalho:

a) finalidade da lei: estabelecer normas gerais para, em âmbito nacional, garantir a segurança e a confiabilidade necessárias e os direitos fundamentais da pessoa humana quando do desenvolvimento, implementação e uso de sistemas de IA (art. 1º);

b) diretrizes: o desenvolvimento, a implementação e o uso de sistemas de IA devem observar a boa-fé e, dentre outros, os princípios da participação humana no ciclo da IA e de uma efetiva supervisão, da não discriminação, da rastreabilidade das decisões tomadas no decorrer do ciclo de vida da IA (para eventuais prestações de contas e apurações de responsabilidades), e da prevenção, precaução e mitigação dos riscos de sistema decorrentes da utilização dessa tecnologia, seja em relação à intencionalidade ou não de uso ou aos próprios efeitos não previstos inicialmente (art. 3º, III, IV, IX e XI);

c) direitos das pessoas físicas afetadas: aqueles que tiverem sua esfera pessoal de alguma forma atingida pelos sistemas de IA possuem, dentre outras proteções igualmente previstas na minuta, a garantia da não-discriminação e da correção de eventuais discriminações diretas, indiretas, ilegais ou abusivas (art. 5º, V);

d) grupos vulneráveis: no desenvolvimento de sistemas de IA destinados a grupos com maior vulnerabilidade, a exemplo de crianças, adolescentes, idosos e pessoas com deficiência, deve-se considerar a necessidade de que estas mesmas pessoas compreendam o seu funcionamento, assim como os direitos que lhes são inerentes em face dos agentes de IA (art. 7º, § 3º);

e) vedações (casos de “risco excessivo”): a minuta objetiva impedir a implementação e o uso de sistemas de IA que possam, eventualmente, utilizar-se de “técnicas subliminares” capazes de prejudicar a pessoa natural em sua saúde ou segurança, ir de encontro aos fundamentos da futura lei, explorar vulnerabilidade de grupos específicos, ou mesmo, ilegítima ou desproporcionalmente, avaliar, classificar e ranquear as pessoas físicas com fundamento em seu comportamento social ou em atributos de sua própria personalidade (para fins de acesso a bens e serviços públicos);

f) classificações de periculosidade: para maior controle e regulamentação, bem estabelece a minuta legal acerca dos sistemas de IA que são considerados de risco excessivo, ou, ainda, de alto risco (arts. 14 a 18);

g) governança dos sistemas de IA: nos termos da minuta, incumbe aos agentes de IA o estabelecimento de estruturas de governança e processos internos que possam conferir segurança aos sistemas e assegurar o próprio atendimento das pessoas afetadas. Vale ressaltar, ademais, que estas medidas de governança devem ser aplicadas no decorrer de todo o ciclo de vida da IA, ou seja, desde a sua concepção até os seus encerramento e descontinuação, bem como que os sistemas de alto risco contarão com medidas de governança e processos internos adicionais (arts. 19, caput e § 1º, e 20, caput);

h) avaliação de impacto algorítmico: cuida-se, em relação aos sistemas de IA, de obrigação direcionada aos respectivos agentes, sempre que estes mesmos sistemas forem classificados como de alto risco. Dentre outros aspectos, a referida avaliação de impacto levará em consideração (I) os riscos conhecidos e previsíveis do sistema à época de seu desenvolvimento e os riscos que dele razoavelmente se esperam, (II) os benefícios relacionados ao sistema, (III) a probabilidade de consequências adversas, nesta inclusa a quantidade de pessoas que porventura possam ser impactadas, (IV) a gravidade dos resultados adversos, devendo ser igualmente previsto o esforço necessário à sua mitigação, (V) os processos, resultados de testes, avaliações e medidas de mitigação perfectibilizadas com o intuito de se apurar possíveis impactos a direitos, destacando-se os potenciais impactos na esfera discriminatória, e (VI) as medidas de transparência ao público. Na minuta também se assevera que, sob a luz do princípio da precaução, no caso de sistemas de IA com potencial para ensejar impactos irreversíveis ou de difícil reversão, a avaliação sob análise considerará, igualmente, as evidências “incipientes, incompletas ou especulativas” (arts. 22, caput, e 24, § 1º, alíneas ‘a’, ‘b’, ‘c’, ‘d’, ‘f’ e ‘i’, e § 2º);

i) responsabilidade civil: aqui, percebe-se o objetivo de se garantir uma maior proteção aos indivíduos – ou à própria coletividade – que, eventualmente, venham a sofrer algum dano em decorrência do fornecimento ou da operação do sistema de IA; isso porque, em consonância com o documento sob análise, o fornecedor ou operador de sistema de IA que cause “dano patrimonial, moral, individual ou coletivo” será obrigado à reparação integral desde mesmo dado, “independentemente do grau de autonomia do sistema”. Fez-se interessante distinção, ademais, ente os casos de IA de alto risco e de risco excessivo – quando o fornecedor ou operador responderão objetivamente pelos danos, na medida de sua participação -, e os demais casos – situação na qual será presumida a culpa do causador do dano, tendo-se em favor da vítima a inversão do ônus da prova. No mais, as hipóteses de exclusão de responsabilidade destes agentes consubstanciam-se na comprovação de que (I) não colocaram em circulação a IA, empregaram-na ou mesmo tiraram algum proveito do sistema, ou (II) o dano decorreu de fato exclusivo da vítima ou de terceiros, ou de caso fortuito externo (art. 27, caput e §§ 1º e 2º, e art. 28, I e II);

j) códigos de boas práticas e de governança: uma previsão certamente voltada à criação de um importante arcabouço normativo e de orientação ao desenvolvimento e à aplicação dos sistemas de IA, mediante compartilhamento de experiências e padronização de atuação, com consequentes aumento da qualidade do sistema e redução dos riscos envolvidos na respectiva atividade. Nos termos da minuta, é possível, aos agentes de IA, seja individualmente ou por associação, a formulação de códigos de boas práticas e de governança com conteúdos relacionados às condições de organização, ao regime de funcionamento, aos procedimentos, às normas de segurança, aos padrões técnicos, às obrigações, às ações educativas, aos mecanismos de supervisão e mitigação de riscos e às medidas de segurança (técnicas e organizacionais) próprias para a gestão de riscos (art. 30, caput);

k) comunicação de incidentes graves: trata-se de previsão acerca da obrigatoriedade, por parte dos agentes de IA, de comunicar à autoridade competente a ocorrência de graves incidentes de segurança, no que estão inclusos (I) risco à vida e à integridade física de pessoas, (II) interrupção no funcionamento de operações críticas de infraestrutura, (III) danos graves à propriedade ou ao meio ambiente, e (IV) graves violações aos direitos fundamentais (art. 31, caput);

l) supervisão e fiscalização: a autoridade competente será designada pelo Poder Executivo para zelar pela implementação e fiscalização da lei em comento; referida autoridade, outrossim, será o órgão central de aplicação desta mesma lei e de estabelecimento de normas e diretrizes afetas à sua implementação (arts. 32, caput, e 33); e,

m) publicização quanto à IA de alto risco: competirá à autoridade competente a criação e manutenção de uma base de dados de inteligência artificial de alto risco, à qual o público também terá acesso, contendo documentos afetos a avaliações de impacto, devidamente respeitados os segredos comercial e industrial (art. 43).

Internacionalmente, em breve resumo, convém pontuar iniciativas como: (a) a divulgação, em 2016, pela Organização de Cooperação pelo Desenvolvimento Econômico (OCDE), de documento em que se listaram aspectos preocupantes decorrentes do uso da IA, como o aumento do desemprego em razão da automação, um maior desequilíbrio da distribuição de renda e possíveis resultados enviesados em decorrência da ausência de supervisão humana; (b) a publicação em 2019, também pela OCDE, de um guia com recomendações no âmbito do desenvolvimento de IA, dentre as quais princípios como a necessidade de a IA operar em favor das pessoas e do planeta, respeitar os direitos humanos, os valores democráticos e a diversidade, permitir a intervenção humana sempre que necessária e ser transparente para fins de compreensão de suas decisões; igualmente, prevê o documento que os riscos relacionados à IA devem ser constantemente avaliados – situação, inclusive, oportunamente pontuada na minuta de lei nacional anteriormente analisada, ao tratar do monitoramento do funcionamento dos sistemas de IA ao longo de todo o seu ciclo de vida; e, (c) também em 2019, a divulgação, pelo Ministério de Ciência e Tecnologia da China, de regras de governança relacionadas ao desenvolvimento de IA naquele país, e a criação, pela Comissão da União Europeia, de um guia ético para uma IA confiável, com previsões como supervisão humana, segurança, robustez técnica, privacidade, governança de dados, transparência e não discriminação no desenvolvimento destes sistemas. [55]

Em 2020, os Estados Unidos publicaram proposta de regulamentação da IA, e a OCDE apresentou o Observatório de Políticas de IA, este com o objetivo de auxiliar no desenvolvimento responsável desta inteligência; igualmente, a Comissão da União Europeia promoveu consulta pública para captar a opinião da sociedade sobre o assunto, tendo como objetivo a elaboração de uma proposta legislativa, e a França e o Canadá lideraram a iniciativa denominada “The Global Partnership on AI – GPAI”, contando com a participação de governos como os da Austrália, Alemanha, México, Singapura e Estados Unidos, com o objetivo de orientar o desenvolvimento de uma IA que respeite os direitos humanos, a inclusão, a diversidade, a inovação e o crescimento econômico. [56] [57]

Apura-se, destarte, que tanto a regulamentação interna quanto aquela guiada internacionalmente vêm tecendo, gradualmente, um tecido basilar afeto à programação e ao uso responsável da IA, comprometido com ditames éticos. Ainda que não se possa, ao menos atualmente, identificar uma normatização global unificada e suficiente ao tema, acompanhada de oportuna eficácia legal no âmbito interno dos países, já se mostra possível avançar a temática por meio dos documentos até o momento publicados, seja aperfeiçoando-os, complementando-os ou os adaptando ao estado da arte.

No âmbito do desenvolvimento e da aplicação da IA – sem se olvidar, tecnicamente, da própria descontinuação dos respectivos sistemas, situação que comporta igual atenção -, portanto, vislumbra-se um caminhar conjunto da Ética e do Direito: aqui, especificamente, compreende-se que um se esvazia consideravelmente, quanto à efetividade, na ausência de outro; entender as aplicações éticas da IA e perfectibilizá-las de forma segura, padronizada e global/regional requer instrumentos jurídicos que tragam a necessária imperatividade junto ao Estado e aos particulares; produzir leis e regulamentos sobre IA sem a consideração dos seus aspectos éticos se traduz, primeiramente, em um aparente “paradoxo” – dado que, quando não se adentra a questão ética, acaba-se por, justamente, perpetuar eventual status quo quanto ao tema -, e, até certo ponto, em ato de caráter predominantemente descritivo, técnico, porventura desprovido de maior urgência na esfera jurídica, salvo melhor juízo.

 

 5 CONSIDERAÇÕES FINAIS

O estudo acima exposto teve por escopo primordial a análise, ainda que perfunctória, da aplicação da Ética e do Direito no âmbito da Inteligência Artificial (IA). Em atenção ao constante avanço dos conhecimentos computacional e robótico, dos quais decorrem a criação de máquinas detentoras de inteligência – ainda que previamente programada -, a importância de se estabelecer parâmetros de seu funcionamento e atuação no mundo, assim como do comportamento humano na convivência a ser concretizada, acaba por se tornar inegável. Daí que, em um novo cenário vivenciado pela humanidade, deve-se voltar os olhos a uma programação ética da IA e ao próprio agir ético do ser humano envolvido, sob pena de se comprometer a convivência entre os metais estruturados e os carbonos conglomerados – estes, eventualmente, vulneráveis física e intelectualmente em comparação à capacidade que àqueles poderá ser concedida, mas, antes de tudo, e sob a ótica da realidade da programação, detentores da possibilidade (plena?) de controle de suas criações.

Embora reconhecida a sua importância ao estudo da criatividade e do pensamento humanos sobre o tema, por vezes pautados na observação do comportamento da sociedade e nas suas consequências possíveis, às ficções científicas não se pode mais atribuir o papel exclusivo de análise do tema apresentado. Há inúmeros exemplos contemporâneos que evidenciam a intensificação da IA na sociedade e a tendência de seu aperfeiçoamento, e clamam, por isso mesmo, estudos filosóficos e jurídicos voltados à ponderação dos limites de programação e dos aspectos éticos e legais a guiarem as escolhas das novas máquinas e dos próprios homens que com elas venham a interagir.

Vale destacar, nesse sentido, a importância do aprofundamento das teorias da Ética e a análise da possibilidade, ou não, de se definir premissas básicas do comportamento da IA e do homem perante esta. Ainda se possa considerar que a sapiência computacional, hodiernamente, não apresenta ameaças fáticas aos seres com vida – e vice-versa, considerando-se o incipiente amadurecimento do autoconhecimento das máquinas -, não se pode descartar futuro cenário de criação robótica mais complexa e de convivência com seres artificiais detentores de faculdades “mentais” e motoras similares às dos seres humanos. No estabelecimento de um conjunto dos cruciais problemas a serem trabalhados no tema ventilado, ratificou-se, no particular, não somente a imprescindibilidade de um estudo do comportamento binário, mas, igualmente, da atuação do indivíduo e da sociedade ante a nova realidade que se aproxima.

Nesse sentido, permitindo-se partir do reconhecimento da importância de se estudar os limites da programação da IA, bem como da interação entre as novas máquinas e os seres humanos, em atenção a um agir ético, não há se ignorar a pertinência do estabelecimento de normas regentes desse novo cenário. A padronização do comportamento computacional, especificamente no que diz aos seus aspectos éticos, por certo não se mostra tarefa simples, mormente porque demanda específica análise do seu âmbito de incidência: seria possível ultrapassar as fronteiras nacionais e alcançar uma normatização internacional, garantindo-se maior segurança ao novo cenário apresentado? O questionamento aqui exposto perpassa, necessariamente, pela delicada tarefa de se discutir a possibilidade de estipulação de padrões comportamentais universalmente aceitos, a serem considerados no desenvolvimento de qualquer ser artificial detentor do poder de escolhas, bem como no convívio com este.

De toda a forma, por meio da regulamentação do tema, ainda que inicial e mesmo limitada à esfera nacional/regional, facilita-se a consolidação de orientações (padronização) e atenuam-se discrepâncias negativas no desenvolvimento da IA, seja no âmbito da qualidade do serviço ou, ainda mais relevante à população, na esfera de eventuais comportamentos enviesados, inicialmente programados para tanto ou não. O artigo apresentado teve como objetivo concomitante, portanto, o estudo da forma pela qual o entendimento acerca do agir ético no campo IA pode alcançar a esfera da regulamentação positivada e, por conseguinte, do próprio Direito.

Aproveita-se a oportunidade para ressaltar, finalmente, que o horizonte apresentado parece permitir, igualmente, sejam discutidos eventuais direitos concernentes às próprias máquinas inteligentes. Ter-se-iam, aqui, discussões sobre o que vem a ser a consciência, em que momento poderia um ser artificialmente inteligente reclamar prerrogativas, se a tênue linha que liga o criador à criatura permitirá àquele, sempre, o controle final desta, dentre outras questões de igual relevância.

 

Perspectives on ethics and law applied in the development and interaction with artificial intelligence

Abstract: This article intends to demonstrate the importance and urgency of Ethics and Law in the context of Artificial Intelligence (AI). With a brief development of the theme, it initially goes through a historical exposition of the intelligent machines’ evolution to, then, address the ethical issues that involve both their programming and performance and human behavior itself in a new scenario of coexistence. Starting from the understanding that there is a possibility of future coexistence between these new sapient beings, endowed with mental and motor faculties similar or even superior to those of human beings, and humanity, it reinforces the need to raise awareness, among professionals directly involved in its programming, about the indispensability of safeguarding the integrity of living beings and the environment they inhabit. Likewise, the limits of robotic consciousness are also analyzed, and its consequences are questioned regarding the ethical human treatment in relation to machines. Although recognizing the difficulty of defining Ethics in universal applications, the aim is to draw the reader’s attention to the impossibility of not including this branch of knowledge in the sphere of AI, even considering the examples currently experienced. Finally, emphasis is placed on the fundamental role of Law, through which it is allowed the analysis of the possibility of regulating the matter on a universal basis or, in the presence of diplomatic and legal barriers, at a regional level, as well as establishing the necessary techniques to the realization of this same matter. For the elaboration of this article, bibliographical and normative research were conducted.

Keywords: Artificial intelligence. Philosophy. Ethic. Robotics. Law.

 

6 REFERÊNCIAS

ASIMOV, Isaac. Eu, robô. 1. ed. São Paulo: Aleph, 2014. 315 p.

BALDESSIN, Marceli Giglioli Stoppa. A ficção científica como derivação da utopia – inteligência artificial. 2006. 152 p. Dissertação (Mestrado em História e Teoria Literária) – Instituto de Estudos da Linguagem, Universidade Estadual de Campinas, Campinas, 2006. Disponível em: <http://repositorio.unicamp.br/Acervo/Detalhe/376469>. Acesso em: 28 mar. 2023.

BAUMAN, Zygmunt. O mal-estar da pós-modernidade. Rio de Janeiro: Zahar, 1998. 272 p.

BOSTROM, Nick. Superinteligência: caminhos, perigos e estratégias para um novo mundo. Rio de Janeiro: DarkSide Books, 2018. 512 p.

CASTRILLÓN, Omar Danilo; CÓRDOBA, María del Pilar Rodríguez; CASTAÑO, Juan David Leyton. Ética e inteligencia artificial: ¿necessidad o urgencia?. Memorias, v. 3, n. p., 2008. Disponível em: <http://www.iiis.org/CDs2008/CD2008CSC/CISCI2008/PapersPdf/C054TM.pdf>. Acesso em: 28 mar. 2023.

CONSELHO NACIONAL DE JUSTIÇA. Resolução CNJ n. 332, de 21 de agosto de 2021. Disponível em: <https://atos.cnj.jus.br/atos/detalhar/3429>. Acesso em: 06 jan. 2023.

DUARTE, Nathalia. Elon Musk apresenta robô humanoide da Tesla; conheça Optimus. Techtudo, 01 out. 2022. Disponível em: <https://www.techtudo.com.br/noticias/2022/10/elon-musk-apresenta-robo-humanoide-da-tesla-conheca-optimus.ghtml>. Acesso em: 30 mar. 2023.

MOOR, James H.. The nature, importance, and difficulty of machine ethics. IEEE Intelligent Systems, v. 21, n. 4, p. 18-21, 2006. Disponível em: <http://www.psy.vanderbilt.edu/courses/hon182/The_Nature_Importance_and_Difficulty_of_Machine_Ethics.pdf>. Acesso em: 28 mar. 2023. (tradução nossa).

Musk e centenas de especialistas pedem pausa no avanço de sistemas com inteligência artificial. G1, por France Presse, 29 mar. 2023. Disponível em: <https://g1.globo.com/tecnologia/noticia/2023/03/29/musk-e-centenas-de-especialistas-pedem-pausa-no-avanco-de-sistemas-com-inteligencia-artificial.ghtml>. Acesso em: 30 mar. 2023.

NILSSON, Nils J.. Human-level artificial intelligence? Be serious!. AI Magazine, v. 26, n. 4, p. 68-75, 2005. Disponível em: <https://ojs.aaai.org/aimagazine/index.php/aimagazine/article/view/1850>. Acesso em: 28 mar. 2023.

Regulamentação da inteligência artificial: entenda o debate mundial. Alana. Disponível em: <https://blog.alana.ai/cresca-com-alana/regulamentacao-da-inteligencia-artificial-entenda-o-debate-mundial/>. Acesso em: 28 mar. 2023.

RUSSEL, Stuart; NORVIG, Peter. Inteligência artificial. Rio de Janeiro: Elsevier, 2013. 1056 p.

SENADO FEDERAL. Comissão conclui texto sobre regulação da inteligência artificial no Brasil. Agência Senado, 06 dez. 2022. . Disponível em: <https://www12.senado.leg.br/noticias/materias/2022/12/06/comissao-conclui-texto-sobre-regulacao-da-inteligencia-artificial-no-brasil>. Acesso em: 06 jan. 2023.

SENADO FEDERAL. Relatório final da comissão de juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial instituída pelo ato do Presidente do Senado n. 4, de 2022, aprovado em 1º de dezembro de 2022. Coordenação de Comissões Especiais, Temporárias e Parlamentares de Inquérito, 2022. 909 p. Disponível em: <https://legis.senado.leg.br/sdleg-getter/documento?dm=9221643&ts=1671480638920&disposition=inline>. Acesso em: 06 jan. 2023.

YAMPOLSKIY, Roman V.. Artificial intelligence safety engineering: why machine ethics is a wrong approach. Philosophy and theory of artificial intelligence, p. 389-396, 2013. Disponível em: <http://cecs.louisville.edu/ry/AIsafety.pdf>. Acesso em: 28 mar. 2023.

 

7 NOTAS

 [1] RUSSEL, Stuart; NORVIG, Peter. Inteligência artificial. Rio de Janeiro: Elsevier, 2013. Tópico do livro: “1.2.6 Engenharia de computadores”, n.p.

[2] Ibid, tópico do livro: “1.1.1 Agindo de forma humana: a abordagem do teste de Turing”, n. p.

[3] Ibid, tópico do livro: “1.3.1 A gestação da inteligência artificial (1943-1955)”, n.p.

[4] Ibid, tópico do livro: “1.3.1 A gestação da inteligência artificial (1943-1955)”, n. p.

[5] Ibid, tópico do livro: “1.3.3 Entusiasmo inicial, grandes expectativas (1952-1969), n. p.

[6] BOSTROM, Nick. Superinteligência: caminhos, perigos e estratégias para um novo mundo.

[7]Rio de Janeiro: DarkSide Books, 2018. p. 28-29.

[8]Ibid, p. 29-30.

[9] Ibid, p. 30.

[10] Ibid, p. 31.

[11] RUSSEL; NORVIG, op. cit., tópico do livro: “1.3.6 A IA se torna uma indústria (de 1980 até a atualidade)”, n. p.

[12] BOSTROM, op. cit., p. 31-32.

[13] Ibid, p. 32.

[14] Ibid, p. 33.

[15] Ibid, p. 35.

[16] RUSSEL; NORVIG, op. cit., tópico do livro: “1.3.9 O surgimento de agentes inteligentes”, n. p.

[17] Ibid, tópico do livro: “1.3.9 O surgimento de agentes inteligentes (de 1995 até a atualidade)”, n. p.

[18] Ibid, tópico do livro: “1.4 O Estado da Arte”, n. p.

[19] BOSTROM, op. cit., p. 40 e 43-45.

[20] DUARTE, Nathalia. Elon Musk apresenta robô humanoide da Tesla; conheça Optimus. Techtudo, 01 out. 2022. Disponível em: <https://www.techtudo.com.br/noticias/2022/10/elon-musk-apresenta-robo-humanoide-da-tesla-conheca-optimus.ghtml>. Acesso em: 30 mar. 2023.

[21] BOSTROM, op. cit., p. 49.

[22] Ibid, p. 49-50.

[23] NILSSON, Nils J.. Human-level artificial intelligence? Be serious!. AI Magazine, v. 26, n. 4, p. 68-75, 2005. p. 68. Disponível em: <https://ojs.aaai.org/aimagazine/index.php/aimagazine/article/view/1850>. Acesso em: 28 mar. 2023. (tradução nossa).

[24] BOSTROM, op. cit., p. 51-52.

[25] NILSSON, op. cit., p. 69.

[26] ASIMOV, Isaac. Eu, robô. 1. ed. São Paulo: Aleph, 2014. p. 65.

[27] BALDESSIN, Marceli Giglioli Stoppa. A ficção científica como derivação da utopia – inteligência artificial. 2006. 152 p. Dissertação (Mestrado em História e Teoria Literária) – Instituto de Estudos da Linguagem, Universidade Estadual de Campinas, Campinas, 2006. p. 8. Disponível em: <http://repositorio.unicamp.br/Acervo/Detalhe/376469>. Acesso em: 28 mar. 2023.

[28] CASTRILLÓN, Omar Danilo; CÓRDOBA, María del Pilar Rodríguez; CASTAÑO, Juan David Leyton. Ética e inteligencia artificial: ¿necessidad o urgencia?. Memorias, v. 3, n. p., 2008. p. 2. Disponível em: <http://www.iiis.org/CDs2008/CD2008CSC/CISCI2008/PapersPdf/C054TM.pdf>. Acesso em: 28 mar. 2023. (tradução nossa).

[29] Musk e centenas de especialistas pedem pausa no avanço de sistemas com inteligência artificial. G1, por France Presse, 29 mar. 2023. Disponível em: <https://g1.globo.com/tecnologia/noticia/2023/03/29/musk-e-centenas-de-especialistas-pedem-pausa-no-avanco-de-sistemas-com-inteligencia-artificial.ghtml>. Acesso em: 30 mar. 2023.

[30] CASTRILLÓN; CÓRDOBA; CASTAÑO, op. cit., p. 3.

[31] Ibid, p. 3.

[32] Ibid, p. 3.

[33] Ibid, p. 5-6.

[34] Ibid, p. 4.

[35] Ibid, p. 5.

[36] MOOR, James H.. The nature, importance, and difficulty of machine ethics. IEEE Intelligent Systems, v. 21, n. 4, n. P 18-21, 2006. p. 18. Disponível em: <http://www.psy.vanderbilt.edu/courses/hon182/The_Nature_Importance_and_Difficulty_of_Machine_Ethics.pdf>. Acesso em: 28 mar. 2023. (tradução nossa).

[37] BAUMAN, Zygmunt. O mal-estar da pós-modernidade. Rio de Janeiro: Zahar, 1998. p. 70-71.

[38] MOOR, op. cit., p. 19.

[39] Ibid, p. 19.

[40] Ibid, p. 19.

[41] Ibid, p. 20.

[42] Ibid, p. 20.

[43] Ibid, p. 20-21.

[44] Ibid, p. 21.

[45] Ibid, p. 21.

[46] YAMPOLSKIY, Roman V.. Artificial intelligence safety engineering: why machine ethics is a wrong approach. Philosophy and theory of artificial intelligence, p. 389-396, 2013. p. 389. Disponível em: <http://cecs.louisville.edu/ry/AIsafety.pdf>. Acesso em: 28 mar. 2023.

[47] Ibid, p. 392.

[48] Ibid, p. 393.

[49] CONSELHO NACIONAL DE JUSTIÇA. Resolução CNJ n. 332, de 21 de agosto de 2021. Disponível em: <https://atos.cnj.jus.br/atos/detalhar/3429>. Acesso em: 06 jan. 2023.

[50] CONSELHO NACIONAL DE JUSTIÇA. Resolução CNJ n. 332, de 21 de agosto de 2021. Art. 26. Disponível em: <https://atos.cnj.jus.br/atos/detalhar/3429>. Acesso em: 06 jan. 2023.

Ibid., art. 7º, § 3º.

[51] SENADO FEDERAL. Relatório final da comissão de juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial instituída pelo ato do Presidente do Senado n. 4, de 2022, aprovado em 1º de dezembro de 2022. Coordenação de Comissões Especiais, Temporárias e Parlamentares de Inquérito, 2022. p. 03. Disponível em: <https://legis.senado.leg.br/sdleg-getter/documento?dm=9221643&ts=1671480638920&disposition=inline>. Acesso em: 06 jan. 2023.

[52] SENADO FEDERAL. Comissão conclui texto sobre regulação da inteligência artificial no Brasil. Agência Senado, 06 dez. 2022. Disponível em: <https://www12.senado.leg.br/noticias/materias/2022/12/06/comissao-conclui-texto-sobre-regulacao-da-inteligencia-artificial-no-brasil>. Acesso em: 06 jan. 2023.

[53] SENADO FEDERAL. Relatório final da comissão de juristas responsável por subsidiar a elaboração de substitutivo sobre inteligência artificial instituída pelo ato do Presidente do Senado n. 4, de 2022, aprovado em 1º de dezembro de 2022. Coordenação de Comissões Especiais, Temporárias e Parlamentares de Inquérito, 2022. p. 10. Disponível em: <https://legis.senado.leg.br/sdleg-getter/documento?dm=9221643&ts=1671480638920&disposition=inline>. Acesso em: 06 jan. 2023.

[54] Ibid., p. 15-58.

[55] Regulamentação da inteligência artificial: entenda o debate mundial. Alana. Disponível em: <https://blog.alana.ai/cresca-com-alana/regulamentacao-da-inteligencia-artificial-entenda-o-debate-mundial/>. Acesso em: 28 mar. 2023.

[56] Ibid.

[57] Para informações adicionais, possível a leitura das páginas eletrônicas citadas pela matéria referente às notas nºs. 53 e 54, a exemplo das seguintes: (I) OCDE: <https://www.oecd.org/digital/artificial-intelligence/> (acesso em: 28 mar. 2023); (II) China: <https://www.loc.gov/item/global-legal-monitor/2019-09-09/china-ai-governance-principles-released/> (acesso em: 28 mar. 2023); (III) Comissão da União Europeia: <https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai> (acesso em: 28 mar. 2023).

 

 

 

Deixe um comentário

Carrinho de compras
Rolar para cima
×