Senado Federal Senado Federal
Regulamentação da IA exige foco na centralidade humana, aponta debate
Durante audiência pública nesta quinta-feira (26) senadores e especialistas defenderam que o projeto de lei que busca regulamentar o uso de intelig...
26/10/2023 15h15
Por: Redação Fonte: Agência Senado

Durante audiência pública nesta quinta-feira (26) senadores e especialistas defenderam que o projeto de lei que busca regulamentar o uso de inteligência artificial (IA) deve focar em princípios como a igualdade de direitos e a não discriminalização e na centralidade no elemento humano. O debate, promovido pela Comissão Temporária sobre Inteligência Artificial no Brasil (CTIA), apontou ainda como desafio a elaboração de uma norma equilibrada capaz de oferecer segurança jurídica sem implicar limitações para o desenvolvimento da educação, da tecnologia e na criação de novos negócios no país.

O PL 2.338/2023 tramita na CTIA, é relatado pelo senador Eduardo Gomes (PL-TO) e teve origem no anteprojeto apresentado por uma comissão de juristas.

O senador Marcos Pontes (PL-SP) ressaltou a importância de se apresentar um marco regulatório para o setor, a exemplo do que está sendo feito em outros países, mas ponderou que a norma legislativa não pode se impor como um limitador ao desenvolvimento tecnológico no país. Para ele, é necessário que esse avanço tenha como centralidade o ser humano.

— Você não consegue contornar ou prever [os efeitos da IA], até mesmo porque essa tecnologia está em desenvolvimento, nunca vai ser possível criar uma coisa preditiva, de imaginar como vai ser essa tecnologia, mas nós podemos imaginar situações de uso, porque aí, dentro da correspondência e das necessidades de proteção do ser humano como o centro de tudo isso, a gente pode sim colocar os devidos cuidados. Isso envolve a utilização das pessoas, dos dados das pessoas, as questões éticas, as questões de discriminalização que elas podem ocorrer. Existe o potencial para ocorrer de acordo com o aprendizado da utilização dessas máquinas.

O senador Izalci Lucas (PSDB-DF) também manifestou receio de o Brasil “ficar para traz em relação a inovação tecnológica”, caso o projeto venha a generalizar as responsabilidades de efeitos que ainda não são conhecidos.

— A gente já começou essa discussão da regulamentação no campo jurídico. Ora, como fazer essa regulamentação se a gente nem sabe ainda o que é, agora é que está se desenvolvendo — afirmou.

Ecossistema regulatório

Para a assessora especial de Direitos Digitais do Ministério da Justiça e Segurança Pública (MJSP), Estela Aranha, o maior desafio de uma nova legislação como a que está sendo discutida é adequar as regras com garantias fundamentais a um contexto que requer um sistema de normas bastante dinâmicos e que leve em consideração as particularidade do Brasil.

Para ela, é preciso pensar em uma ferramenta de governança para que seja trabalhado um ecossistema regulatório pensado de forma transversal.

— A gente sabe que não existem padrões únicos, inclusive para esses princípios. Os próprios tribunais interpretam todos esses princípios de forma diferente no mundo inteiro. A gente tem por exemplo a liberdade de expressão. Nos Estados Unidos é interpretado de uma forma, na Europa, de outra, aí no Brasil a gente tem outra interpretação. Então como a gente pode fazer isso?

Transparência

Na avaliação de outras especialistas, o Brasil pode se tornar uma grande referência no campo trazendo nesse primeiro marco legal regras que assegurem um sistema comprometido com a transparência. Essa foi a defesa da diretora do Laboratório de Políticas Públicas e Internet (Lapin), Cynthia Picolo, e da presidente do Instituto Istart de Ética e Cidadania Digital, Patrícia Peck.

— O PL [projeto de lei] deve trazer obrigações específicas para o fornecimento de informações acessíveis e compreensíveis a respeito do impacto ambiental para o treinamento e funcionamento dos sistemas. E deve ter, no mínimo, informações sobre consumo de energia, sobre os equipamentos usados e onde são hospedados os dados. Para então permitir o mapeamento de dados sobre recursos minerais e água — ressaltou Cynthia Picolo ao analisar a repercussão da transparência na redução de danos no meio ambiente.

Responsabilidades

Outros debatedores manifestaram preocupação com a possibilidade de o novo marco acabar colidindo com outras legislações já existentes — como a Lei Geral de Proteção de Dados ( LGPD — Lei 13.709, de 2018 ), o Marco Civil da Internet , o Código Civil e o Código de Defesa do Consumidor — e acabar gerando insegurança jurídica.

Na avaliação do conselheiro nacional do Ministério Público (CNMP),Rodrigo Badaró, o Brasil pode, sim, se espelhar na regulamentação já feita por outros países, mas deve colocar como base as particularidades da realidade ética, cultural, social e econômica brasileira. Ele manifestou preocupação com o “ímpeto regulatório” que tem, segundo ele, sido nutrido pelo medo da inovação e seus impactos.

— A gente tem um país continental e uma questão ética e problemas que em nenhum lugar do mundo tem. Então, é importante, quando do desenvolvimento da norma, termos em mente essa questão específica brasileira, da questão racial. Será que nós temos a capacidade de impor a pequenas empresas, já com carga tributária elevada, regras e regras que impeçam o desenvolvimento em tecnologia? — questionou.

A líder da Comissão Especial de Regulação de Inteligência Artificial da Associação Internacional de Inteligência Artificial (A2IA), Adriana Rollo, também se posicionou com a mesma preocupação. Para ela, o projeto precisa de ajustes em três pontos principais: “na falta de compreensão do ciclo de vida da IA e na definição dos agentes; na caracterização de risco e na lógica da responsabilidade civil.

Ela citou como exemplo o caso de um desenvolvedor que possa ter criado uma IA em um certo período e já não faz mais parte da cadeia de distribuição desse uso da inteligência artificial. Mas, pela lógica do texto legislativo, explicou, ele ainda participa integralmente da responsabilidade por um possível dano dentro dessa cadeia.

— Um exemplo muito elucidativo é que alguém com uma faca lesiona uma pessoa na rua ou pratica um homicídio, por exemplo. Em nenhuma circustância do direito brasileiro as facas “Tramontina” vão ser responsabilizadas por esse delito, por esse crime. Porque da mesma forma como a IA, a gente está falando de uma ferramenta que pode ser utilizada tanto para o bem quanto para o mal em diferentes circunstâncias. Então a gente tem que realmente responsabilizar a pessoa a pessoa, a entidade que causou aquele dano.

Ainda como contribuição ao texto, o professor da Universidade Federal de Minas Gerais (UFMG) Leonardo Netto Parentoni disse que é preciso levar em consideração o grau de precisão e redução de risco para que a atividade humana seja substituída pela IA. Na sua avaliação, quanto maior a substituição da atividade humana pela inteligência artificial, maior deve ser o rigor da legislação para quem está no controle dessa decisão.

— Por exemplo, o carro autônomo. Ele deve ter um nível maior de previsibilidade na lei porque não é o ser humano quem toma as decisões, é o veículo. Portanto, para casos de maior risco, exige-se maior transparência, acurácia e explicação. E podem ser proibidos determinados acordos comerciais. E no sentido contrário, não me parece fazer sentido que a legislação intervenha em sistema de inteligência artificial que apenas recomendam, mas que não substitui a decisão humana. Intervir nesses casos, seria sufocar ainda mais as pequenas e médias empresas brasileiras que lutam com muita dificuldade para se manter no trabalho e que, ao final do dia, o sistema que elas proporcionam apenas recomenda, mas não substitui a decisão humana.

Discriminação algorítmica

Para a coordenadora de pesquisa do Instituto de Referência em Internet e Sociedade (Iris), Fernanda Rodrigues, a regulamentação da IA precisa ir além das questões de princípios e valores. Ela deve se basear, segundo a especialista, em riscos e problemas específicos do Brasil como o histórico escravocrata do país. Segundo ela, esse passado ainda reflete de forma negativamente em alguns sistemas, como o penitenciário e o de segurança pública do país. Nesse sentido, ela defendeu que os debates busquem compreender o que pode e o que não pode ser automatizado, de acordo com impacto prejudicial para grande parcela da população.

— A gente tem farta literatura demonstrando o quanto a segurança pública e o sistema penal brasileiro, como um todo, são baseadas estruturalmente no racismo. Isso significa que qualquer tecnologia, qualquer medida estratégica voltada para as aéreas específicas precisa considerar quais são as principais pessoas afetadas nesse sentido.

A conselheira do Instituto Brasileiro de Estudos de Concorrência, Consumo e Comércio Internacional (Ibrac), Marcela Mattiuzo, também fez ponderações nesse sentido. Para ela, a regulação precisa conversar com o direito das pessoas afetadas.

— Se a gente olha para o reconhecimento facial, como boa parte do sistema foi treinado com base de dados contendo fundamentalmente imagens de homens, brancos e ocidentais, os sistemas acabaram tendo dificuldades de replicar essa lógica de identificação, por exemplo, para pessoas negras. Levando a não identificação da pessoa como sendo uma pessoa, ou a identificação de uma pessoa sendo outra pessoa e coisas do gênero.

Questões laborais

Em outra frente, especialistas defenderam maior atenção dos parlamentares para a determinação de parâmetros que possam definir as formas de gerenciamento de trabalho via algoritmo. Para elas, o avanço da “plataformização de trabalho” deve vir acompanhada de participação dos trabalhadores na elaboração desse sistema.

— Num contexto da IA generativa [tecnologia com capacidade de aprender padrões complexos de comportamento a partir de uma base de dados], por exemplo, a gente sabe que eles usam mão de obra humana para realizar tarefas, catalogação de dados, moderação de conteúdo mediante remuneração e condições de trabalho degradantes. Então além de ser remuneradamente insatisfatório, esse tipo de trabalho afeta a saúde física e mental das pessoas já que elas são submetidas, por exemplo, a analisa conteúdos ofensivos e violentos. E, por outro lado, há trabalhadores que dependem de sistema de algoritmo para exercer suas funções como no caso a plataforma Uber. Que o sistema classifica motoristas e determina as corridas de acordo com a disponibilidade, a localidade e outros fatores.