O ChatGPT Não é Um Sistema de IA de “Alto Risco”, mas Necessita de Regulamentação Específica

Demócrito Reinaldo Filho – Desembargador do TJPE

 

O Parlamento Europeu aprovou a proposta de regulamento para a Inteligência Artificial, em 14 de junho deste ano[1]. Conhecida como Intelligence Artificial Act (ou simplesmente AI Act) a proposta da Comissão Europeia[2] para regulação das tecnologias de inteligência artificial fora apresentada desde abril de 2021[3]. A versão aprovada não afeta a abordagem regulatória original, que tem como premissa principal a hierarquização dos riscos oferecidos por sistemas e tecnologias que usam IA[4]. Segundo essa visão regulatória baseada nos riscos (risk-based regulatory approach), as restrições e exigências aumentam à medida que maiores sejam os riscos que os sistemas de IA possam oferecer a direitos e garantias fundamentais dos indivíduos.

A novidade é que os sistemas baseados em inteligência artificial generativa (generative artificial intelligence)[5], a exemplo do ChatGPT, não foram enquadrados dentro do figurino jurídico traçado para os sistemas de “alto risco”, como se esperava. Em relação aos sistemas de alto risco (high-risk AI systems), o AI Act impõe severas restrições ao desenvolvimento, adoção e uso. Sistemas incluídos nessa categoria sujeitam o provedor a obrigações de documentação, rastreabilidade, supervisão humana e outras imposições indispensáveis para mitigar consequências danosas aos usuários[6].

Havia uma forte expectativa de que os sistemas de inteligência artificial generativa fossem incluídos na categoria de “alto risco”, sobretudo depois do lançamento da última versão do ChatGPT, ocorrida em 14 de março e marcada pela falta de transparência sobre aspectos do funcionamento do novo sistema de linguagem natural, notadamente quanto ao conjunto de dados utilizados para o treinamento do algoritmo e o procedimento do treinamento[7].

Os riscos associados à proliferação de ferramentas de inteligência artificial generativa despertam a necessidade de haver um maior controle sobre sua utilização. Apesar de trazerem enormes benefícios, impulsionando a inovação em diversos setores, a natureza disruptiva dessa tecnologia levanta diversas questões relacionadas com a segurança e saúde das pessoas. Os riscos são de que os modelos de IA generativa aumentem a desinformação e o processo de disseminação de notícias falsas (fake news) que tem ameaçado governos democráticos[8]. O ChatGPT e os grandes modelos de linguagem em geral[9], já que são treinados e coletam grandes quantidades de informações disponíveis livremente nas redes telemáticas, também levantam preocupações com aspectos ligados à privacidade e à proteção de dados pessoais[10]. Além disso, como o modelo é capaz de escrever códigos de programa para computador, teme-se que possa ser utilizado para elaboração de códigos maliciosos (malwares) e como ferramenta para ataques cibernéticos. Isso sem mencionar que também pode utilizar obras protegidas pelo direito autoral sem atribuir os créditos aos autores dos trabalhos intelectuais originais.

Por todas essas razões, havia mesmo uma tendência para enquadrar os sistemas baseados em inteligência artificial generativa como de “alto risco”. Tanto assim que alguns eurodeputados, como o liberal romeno Dragoș Tudorache e o social-democrata italiano Brando Benifei, relatores do AI Act no Parlamento Europeu, em 14 de março divulgaram uma minuta de emenda para impor obrigações aos desenvolvedores de sistemas de IA generativa, enquadrando na prática essa tecnologia na categoria de sistemas de “alto risco”[11].

Mas a maioria dos eurodeputados resistia à ideia, acreditando que classificar a inteligência artificial generativa como de “alto risco” pode embotar o desenvolvimento dessa tecnologia. Prevaleceu o entendimento de se criar para a inteligência artificial generativa um regime jurídico específico, um disciplinamento híbrido, formado por algumas das obrigações atribuídas aos sistemas de IA de “alto risco” e outras especificamente talhadas para esse tipo de tecnologia. Isso ficou evidenciado desde que, no dia 11 de maio, os Comitês de Mercado Interno e de Liberdades Civis do Parlamento Europeu aprovaram[12] emendas para dar um tratamento específico às tecnologias de IA com capacidades generativas[13].

Os grandes modelos de linguagem (large language models – LLMs), a exemplo do ChatGPT, representam uma nova onda no desenvolvimento da inteligência artificial de uso geral[14], pois são modelos desenvolvidos a partir de algoritmos concebidos para otimizar a generalidade e a versatilidade dos resultados. São modelos treinados em grandes quantidades de dados para realizar diversas tarefas, incluindo algumas para as quais não foram especificamente desenvolvidos e treinados.

Devido a essa característica dos grandes modelos de linguagem, de se prestarem a realizar variadas funções, podem ser utilizados como aplicação de modelo base[15] para outros sistemas de IA. As tecnologias de IA com capacidades generativas[16] podem ser empregadas como estruturas de base para outros sistemas, com o mínimo de ajuste fino. Esses modelos subjacentes são disponibilizados para outros desenvolvedores por meio de APIs[17] e acesso de código aberto, para fornecer serviços aos usuários finais[18]. Essa é, aliás, a característica marcante dos sistemas de inteligência artificial de uso geral: a possibilidade de serem aproveitados em sistemas de IA mais especializados. Os modelos baseados em inteligência artificial generativa permitem larga variedade de uso. Podem ser utilizados para diferentes tarefas, em diversos campos, geralmente sem necessidade de modificações substanciais na sua programação[19]. Por isso esses sistemas são às vezes chamados de “modelos de fundação” (foundation models), devido ao seu uso como modelos pré-treinados para outros sistemas de IA mais especializados.

Tendo em conta a complexidade da cadeia de distribuição dos modelos de base, bem como a falta de controle do fornecedor em relação aos desenvolvedores downstream, a nova versão do AI Act aprovada pelo Parlamento Europeu estabelece requisitos e obrigações específicas para esses modelos.  Os modelos base são uma nova realidade e em rápida evolução no domínio da inteligência artificial. Por isso, com um quadro regulatório adaptado para eles, os legisladores europeus pretendem enfrentar os riscos específicos gerados por esses modelos.

Os fornecedores de modelos de base devem desenvolvê-los de maneira a atenuar os riscos e danos potenciais. Devem tratar e incorporar nos modelos apenas conjuntos de dados sujeitos a medidas de governança de dados, incluindo filtragem das fontes de dados e avaliação de eventuais enviesamentos (art. 28-B, 2, b).  Devem cumprir com requisitos de concepção técnica, a fim de assegurar níveis adequados de desempenho, previsibilidade, interpretabilidade, corrigibilidade e segurança, por meio de avaliação com participação de peritos independentes, análises documentadas e testes exaustivos, durante a concepção e desenvolvimento do modelo (art. 28-B, 2, c).

Os desenvolvedores de modelos de base devem, ainda, cumprir normas ambientais. Devem conceber e desenvolver o modelo de maneira a reduzir o consumo de energia e a utilização de recursos naturais. Os modelos de base devem ser concebidos com capacidades que permitam a medição e o registo do consumo de energia e recursos, bem como, se tecnicamente viável, de outros impactos ambientais que a implantação e a utilização dos sistemas possam ter ao longo de todo o seu ciclo de vida (art. 28-B, 2, d).

Os modelos de base com funcionalidades generativas[20] devem também cumprir com obrigações de transparência, de modo a deixar claro para os usuários que o conteúdo é gerado por um sistema de IA, e não por seres humanos (art. 28-B, 4, a). Se adequado e pertinente, o fornecedor também deve informar o usuário sobre as funções que são ativadas por IA, a eventual supervisão humana e a responsabilidade pelo processo de tomada de decisão, bem como o direito de se opor à aplicação de tais sistemas e de obter reparação judicial por danos provocados (art. 52, 1). Os desenvolvedores devem treinar o modelo de base de forma a evitar a geração de conteúdos ilícitos (art. 28-B, 4, b) e, quando os dados de treinamento envolveram material protegido pelo direito autoral, devem documentar e disponibilizar ao público um resumo dos dados utilizados (art. 28-B, 4, c).

Para aumentar ainda mais a transparência para o público, os legisladores europeus adotaram para os modelos base um requisito já exigido para os sistemas de risco elevado: a necessidade de cadastrá-los em uma base de dados da UE que será criada e gerida pela Comissão Europeia (art. 28-B, 2, g). Nos termos do regulamento, essa base de dados deve ser de acesso livre e gratuito ao público, facilmente compreensível e legível por máquina (art. 60, n. 3). A base de dados também deve ser fácil de utilizar e de navegar, com funcionalidades que permitam, no mínimo, ao público em geral, pesquisar por sistemas específicos de alto risco, localizações, categorias de risco e palavras-chave.

Em razão de os modelos de base servirem como estrutura fundamental que pode ser incorporada em sistemas de IA mais específicos, o regulamento ainda impõe aos desenvolvedores desses modelos a obrigação de colaborar com os fornecedores downstream – fornecedores finais da cadeia de distribuição (distribuidor, importador ou responsável pela implantação). Quando o modelo de base estiver diretamente integrado num sistema de IA de risco elevado, o fornecedor deve elaborar e manter a documentação técnica e instruções de utilização, a fim de permitir que os fornecedores em cadeia também possam prestar as informações sobre uso dos sistemas derivados aos usuários finais (art. 28-B, 2, e). A documentação técnica deve ser elaborada de maneira a demonstrar que o sistema de IA cumpre os requisitos estabelecidos no regulamento e ficar à disposição das autoridades nacionais de controle (art. 11, n. 1, par. 1º., c/c art. 28-B, n. 1), durante os dez anos subsequentes à data de colocação do produto/serviço no mercado ou do início do seu funcionamento (art. 28-B, n. 3).

Os fornecedores de “modelos de fundação” ainda têm a obrigação de estabelecer um sistema de gestão de qualidade, para garantir e documentar o cumprimento das obrigações estabelecidas no regulamento (art. 28-B, 2, f).

Esses requisitos e obrigações específicas não equivalem a considerar os modelos de base como sistemas de IA de risco elevado, mas devem assegurar um melhor nível de proteção dos direitos fundamentais, saúde e segurança das pessoas e do ambiente, da democracia e do Estado de direito. Os modelos pré-treinados desenvolvidos para um conjunto mais restrito, menos geral e mais limitado de aplicações e que não podem ser adaptados a uma vasta gama de tarefas[21], não devem ser considerados modelos de base para efeitos do regulamento, devido à sua maior interpretabilidade, o que torna o seu comportamento menos imprevisível.

A versão do Parlamento não é o texto final do AI Act. As instituições da União Europeia ainda estabelecerão diálogos para chegar a um consenso. O texto adotado pelo Parlamento serve como sua posição para as negociações interinstitucionais (os triálogos), com o Conselho Europeu e a Comissão Europeia. A previsão é que, ainda que aprovado rapidamente o texto final, o regulamento só entre em vigor no início de 2025.

De todo modo, a versão do Parlamento Europeu é um passo importante para assegurar um quadro jurídico que promova a inovação, ao mesmo tempo em que oferece salvaguardas e medidas de atenuação dos riscos gerados por sistemas de IA.

Recife, 16 de julho de 2023.

NOTAS:

[1] Por 499 votos a favor, 28 contra e 93 abstenções.

[2] A Comissão Europeia é o braço executivo da UE.

[3] Para saber mais sobre o AI Act, sugerimos a leitura do nosso artigo publicado na Revista Jus Navigandi, em 27.05.21, sob o título: “A proposta regulatória da União Europeia para a inteligência artificial (1ª parte): a hierarquização dos riscos”. Disponível em: https://jus.com.br/artigos/90816

[4] A nova versão do regulamento AI Act aprovada pelo Parlamento propõe uma alteração na definição do que seja sistema de inteligência artificial. Na redação proposta para o Artigo 3, parágrafo 1, n. 1, sistema de inteligência artificial (Sistema de IA) é “um sistema baseado em máquinas concebido para operar com vários níveis de autonomia e que pode, em relação a objetivos explícitos ou implícitos, criar resultados, como previsões, recomendações ou decisões, que influenciam ambientes físicos ou virtuais”.

[5] A IA generativa refere-se a uma categoria e modelos que têm a capacidade de criar novos conteúdos a partir de conjuntos de dados pré-existentes. Essas IAs são “ensinadas”, utilizando-se de uma variedade de técnicas (como redes neurais e aprendizado profundo), a gerar novos dados, semelhantes aos dados utilizados para o treinamento, mas que podem ser únicos e originais. Com a capacidade de aprendizado adquirida, tornam-se aptos a criar novos dados como imagens, textos, vídeos, áudios e códigos de programação. Modelos que se utilizam de IA generativa podem, por exemplo, criar uma nova música a partir de um conjunto de notas, converter uma notícia de jornal para o estilo de um famoso escritor ou uma foto para o estilo de um renomado pintor.

[6] Sistemas incluídos na categoria de “alto risco” (high-risk) se sujeitam a requisitos de conformidade e avaliação prévia de impacto, antes de serem colocados no mercado. Para saber mais sobre os sistemas de IA de “alto risco”, recomendamos a leitura do nosso artigo publicado na revista Jus Navigandi, em 20.06.21, sob o título: “A proposta regulatória da União Europeia para a inteligência artificial (3ª parte): sistemas de alto risco”. Disponível em: https://jus.com.br/artigos/91363/a-proposta-regulatoria-da-uniao-europeia-para-a-inteligencia-artificial-3-parte-sistemas-de-alto-risco

[7] A falta de transparência sobre aspectos do funcionamento da versão GPT-4 repercutiu negativamente na comunidade acadêmica e também serviu de fator para apressar a regulamentação da IA. A opção por não divulgar praticamente nada sobre como o ChatGPT (na versão GPT-4) é treinado aumentou as apreensões quanto aos impactos da inteligência artificial generativa sobre os direitos e segurança das pessoas. Ver, a propósito, artigo de nossa autoria sob o título “O ChatGPT é um sistema de inteligência artificial de “alto risco”?”, publicado no dia 03.04.23, no site Consultor Jurídico, acessível em: https://www.conjur.com.br/2023-abr-03/democrito-filho-chatgpt-sistema-alto-risco

[8] Os grandes modelos algorítmicos de linguagem natural (large language models) tornarão mais fácil a produção de milhares de notícias falsas, com versões diversas sobre um mesmo fato. Por meio da criação de perfis falsos em plataformas digitais, será mais fácil influenciar pessoas a tomar decisões equivocadas.

[9] Para saber mais detalhes sobre o ChatGPT e os grandes modelos de linguagem (large language models), recomendamos a leitura de nosso artigo intitulado “O fenômeno do ChatGPT desperta a necessidade de regulamentação da IA”, publicado no site Conjur, em 19.03.23, acessível em: https://www.conjur.com.br/2023-mar-19/democrito-filho-necessidade-regulamentacao-ia

[10] O sistema coleta imensas quantidades de dados disponibilizadas na internet, podendo processar dados sensíveis das pessoas que se encontrem hospedados em outros serviços e plataformas digitais. Como não se sabem exatamente os parâmetros do seu funcionamento, não é descartado que o ChatGPT seja treinado não só com base em dados abertos, mas também sobre dados que lhe são compartilhados por outras plataformas e serviços digitais. Ademais, como se trata de um sistema conversacional, que se envolve em diálogo utilizando linguagem natural, isso pode levar a que o usuário forneça informações pessoais de cunho íntimo. Em face dessa característica de seu funcionamento, o usuário muitas vezes pode imaginar que está travando contato com uma pessoa humana, e não com um sistema de inteligência artificial. Engajando-se em um diálogo com o ChatGPT, o usuário pode revelar interesses, credos, preferências sexuais, ideológicas e dados relativos à saúde. O chatbot não só armazenará todas as mensagens recebidas do usuário, como, por ser um sistema de inteligência artificial altamente sofisticado, realizará cruzamento desses blocos de dados e extrairá inferências que lhe permitirão traçar um perfil completo da personalidade do usuário.

[11] Ver notícia publicada no site Euractiv, em 14.03.23, acessível em: https://www.euractiv.com/section/artificial-intelligence/news/leading-eu-lawmakers-propose-obligations-for-general-purpose-ai/

[12] Por 84 votos a favor, 7 contra e 12 abstenções.

[13] Ver comunicado à imprensa divulgado no site do Parlamento Europeu em 11.05.23, acessível em: https://www.europarl.europa.eu/news/en/press-room/20230505IPR84904/ai-act-a-step-closer-to-the-first-rules-on-artificial-intelligence

[14] Existem duas grandes categorias de tecnologias de IA: “inteligência artificial estreita” (artificial narrow intelligence – ANI) e “inteligência geral artificial” (artificial general intelligence – AGI). As tecnologias ANI, como sistemas de reconhecimento de imagem e fala, também chamadas de IA fraca, são treinadas em conjuntos de dados bem rotulados para executar tarefas específicas e operar em um ambiente predefinido. Por outro lado, as tecnologias AGI, também conhecidas como IA forte, são máquinas projetadas para realizar uma ampla gama de tarefas, pensar de forma abstrata e se adaptar a novas situações.

[15] A nova versão do regulamento AI Act aprovada pelo Parlamento acrescenta um novo dispositivo para definir o que seja modelo de base. De acordo com o Art. 3º., n. 1, ponto 1-C, modelo de base é “um modelo de sistema de IA que é treinado num vasto conjunto de dados em grande escala, concebido para a generalidade dos resultados e pode ser adaptado a uma grande gama de tarefas distintas”.

[16] Modelos de base utilizados em sistemas de IA especificamente concebidos para gerar, com diferentes níveis de autonomia, conteúdos como texto complexo, imagens, áudio ou vídeo.

[17] API significa Application Programming Interface (Interface de Programação de Aplicação). A interface pode ser entendida como uma ponte ou elo de ligação entre duas aplicações ou sistemas informáticos diferentes.

[18] As entidades envolvidas na cadeia de desenvolvimento e distribuição de serviços e ferramentas de IA podem disponibilizar a sua oferta comercial direta ou indiretamente, através de interfaces (como as interfaces de programação de aplicações – APIs), distribuídas ao abrigo de licenças gratuitas e de fonte aberta, mas também por meio de plataformas profissionais de IA, revenda de parâmetros de formação, kits “faça você mesmo” para construção de modelos ou da oferta de acesso pago a uma arquitetura para modelos que permita o seu desenvolvimento e treino.

[19] A tecnologia do ChatGPT já é empregada em grande número de diferentes serviços e aplicações. No início de março de 2023, a OpenAI lançou sua API para desenvolvedores poderem adicionar a tecnologia do ChatGPT em seus próprios serviços.  Ver notícia publicada em 03.03.23, acessível em: https://mundoconectado.com.br/noticias/v/32007/openai-anuncia-api-do-chatgpt-diversas-empresas-ja-estao-testando

[20] Modelos de base utilizados em sistemas de IA especificamente concebidos para gerar, com diferentes níveis de autonomia, conteúdos como texto complexo, imagens, áudio ou vídeo.

[21] A exemplo dos sistemas de IA polivalentes simples.

 

 

Deixe um comentário

Carrinho de compras
Rolar para cima
×