Aspectos Jurídicos da Inteligência Artificial nas Empresas

junho, 2024‎ ‎ ‎ |

‎Por Vitor Martins

Introdução à Inteligência Artificial (IA) nas Empresas

Não há dúvidas de que a inteligência artificial (IA) tem causado uma miríade de dúvidas a respeito de sua aplicação e impacto no mercado de trabalho. Tais impactos, apesar de serem pouco claros à sociedade, são decorrentes da capacidade das IAs de realizarem uma variedade de tarefas, desde a automatização de processos repetitivos até a realização de análises avançadas de dados com a possibilidade de tomada de decisões complexas.

Desta forma, no mundo dos negócios, a inteligência artificial tem sido utilizada para melhorar as operações, aumentar a eficiência, a produtividade e promover a inovação. Um exemplo disso, é a capacidade dos algoritmos de IA de analisar grandes quantidades de dados a fim de identificar padrões e tendências, que auxiliam gestores na tomada de decisões estratégicas. Além disso, os sistemas de IA podem automatizar tarefas rotineiras, permitindo que os funcionários se dediquem a atividades consideradas relevantes e estratégicas às empresas.

Contudo, nem tudo são flores, pois apesar dos potenciais indiscutíveis que os sistemas de IA podem trazer à sociedade e às empresas, sua utilização pode, por outro lado, gerar externalidades variadas, as quais, inclusive, podem ser contrárias a princípios éticos e legais, levantando questões a respeito de sua responsabilidade civil pelos danos que vier a ocasionar. 

Ética na Implementação da Inteligência Artificial

Ao optar pela adoção de IA, as empresas podem empregá-la em processos internos que podem envolver dilemas éticos. Por exemplo, ao utilizar um sistema de IA para tomada de decisão a respeito do impulsionamento de conteúdos nas redes sociais. Nesta ocasião, para garantir maior engajamento dos usuários da plataforma, quais as garantias que a IA estaria amparada em critérios éticos para realizar a seleção do conteúdo a ser impulsionado?

É importante compreender que a IA busca a melhor e mais eficiente forma de alcançar os objetivos que lhe foram determinados pelo seu programador, ou seja, a IA irá trabalhar em busca da satisfação da tarefa que lhe foi dada e, para este fim, considera as diversas possibilidades disponíveis e toma a decisão que melhor contribuir para o objetivo determinado. 

No exemplo das plataformas de rede social temos muitas variáveis a serem consideradas, mas há cuidados com questões éticas, que poderiam passar desapercebidas pelo programador de IA ou pela empresa que utilize a IA, que demandam atenção. Um dos desafios significativos é o viés algorítmico, que se caracteriza pela reprodução ou exacerbação de vieses encontrados nos conjuntos de dados utilizados em seu treinamento. 

O recente caso Facebook é um paradigma nesse contexto, demonstrando a necessidade de atenção aos parâmetros que são determinados à IA no momento em que lhe atribuem determinada tarefa ou objetivo. O Facebook enfrentou investigações no Senado norte americano, que buscaram comprovar os impactos da plataforma sobre a sociedade e os malefícios dos algoritmos por ela empregados na busca por maior engajamento na plataforma. 

A ex-gerente Frances Haugen prestou depoimento no Senado estadunidense no dia 5 de outubro de 2021 e delatou que os algoritmos do Facebook estavam impulsionando conteúdos que promoviam controvérsias, desinformação e extremismo na realização de suas tarefas. Os algoritmos empregados pela plataforma de rede social são as chamadas “machine learning” que se utilizam de sistemas neurais (“deep learning”). Assim, referidas plataformas estabelecem, por meio de seus programadores, determinados objetivos e o algoritmo com os dados fornecidos cria correlações para atingir o objetivo programado, sem que, contudo, haja um acompanhamento e/ou revisão humana para compreender como o algoritmo chegou ao resultado determinado. 

Desta forma, o Facebook ao estabelecer como meta aos algoritmos treinados por deep learning, a interação e o engajamento dos usuários com a plataforma, faz com que a machine learning busque os conteúdos e postagens que refletiam características avaliadas por ela como positivas para alcancar a determinada finalidade. Ocorre que, nos últimos tempos, as plataformas de rede social reconheceram que os conteúdos que mais engajam seus usuários são aqueles que abordam controvérsias, desinformações e extremismo, o que tem acentuado, no mundo, a polarização.

O reconhecimento de quais conteúdos são mais propícios a gerar engajamento foi feito a partir da coleta e análise massiva de dados por algoritmos de machine learning, sendo que a conclusão dos algoritmos é de que os conteúdos que se enquadrem neste padrão deveriam ser impulsionados para o aumento no engajamento na plataforma.

Considerando a conclusão acima, resta evidente que estamos diante de um dilema ético. Assim, surge o dilema entre a obtenção de maior engajamento de usuários nas plataformas em detrimento da qualidade e veracidade das informações compartilhadas. Com isso, na ausência de parâmetros éticos ou de critérios de veracidade para as publicações impulsionadas, em razão de falta de revisão de referidos conteúdos por humanos, os algoritmos optaram por favorecer conteúdos que atraem maior quantidade de usuários e, consequentemente, resultados financeiros à plataforma em detrimento de fornecer informações verificadas e que tenham utilidade social.

Não são raros os documentários que tratam sobre o tema das redes sociais e seus reflexos tanto em gostos e padrões de compras de seus usuários e indivíduos, assim como relacionado a questões políticas, influenciando/determinando resultados de disputas “eleitoreiras”. Podemos citar como conteúdo para consulta: “O Dilema das Redes Sociais” e “Nada é Privado: O Escândalo da Cambridge Analytica”. 

Fica, assim, clara a importância de acompanhamento próximo das decisões empresariais tomadas por IA, pois é necessário que se forneça ao algoritmo parâmetros éticos que balizem sua tomada de decisão. Desta forma, a análise das decisões feitas por IA deve ser algo constante nas empresas que optam pela utilização dessa ferramenta, pois nem sempre é possível antever o dilema ético que pode surgir no processo de execução da tarefa à ela incumbida. No próprio caso do Facebook, dificilmente quando feito o comando de busca por maior engajamento os engenheiros previram que o ambiente da plataforma levaria ao impulsionamento de conteúdos que promovem desinformação, porém, ainda que contrário ao maior engajamento, é necessário que as plataformas tomem os devidos cuidados para que não haja incentivo a este conteúdo.

Em resumo, as empresas devem adotar uma abordagem ética no que se refere à utilização de IAs em tarefas, processos, redes sociais etc, sendo que, tal abordagem ética deve permear todo o processo, desde o início, durante e ao final da execução das tarefas determinadas à IA, assim, incorporando no processo princípios de transparência, justiça, responsabilidade e inclusão nos seus sistemas e práticas.

Proteção de Dados e Privacidade

Conforme mencionado anteriormente, a inteligência artificial processa uma variedade de dados publicamente disponíveis em sistemas de pesquisa, bases de dados, etc. Portanto, o funcionamento da inteligência artificial exige que sejam analisados uma quantidade significativa de dados e, de acordo com a regulamentação da LGPD, alguns maus comportamentos podem ocorrer nesta tarefa, como tratamento de dados sem o consentimento do titular, tratamento para fins desconhecidos pelo titular, entre outros.

Desta forma, a quantidade de dados recolhidos e processados pelos sistemas de IA é crescente, levantando preocupações sobre a privacidade e proteção dos dados pessoais. No Brasil, as empresas que desenvolvem, contratam e utilizam a inteligência artificial em seus processos internos precisam garantir o respeito à Lei Geral de Proteção de Dados e à privacidade dos titulares desses dados.

No Brasil tivemos o vazamento de dados pela OpenAI, detentora do ChatGPT, que vazou dados de cadastro e acesso e está sob análise da ANPD, contudo, também vemos uma crescente preocupação de empresas de tecnologia com essa questão, um exemplo disso é a proibição em nível global, pela Samsung, da utilização de ferramentas de IA generativa, como o ChatGPT por seus funcionários.

A postura da empresa se originou na descoberta pela alta gestão de que uma equipe de funcionários havia inserido um código confidencial na plataforma, causando uma indesejada disseminação da tecnologia no mercado.

É importante que haja ciência de que ainda que contratado o serviço de IA, a inserção de dados nessa ferramenta permite acesso de terceiros ao seu conteúdo, podendo acarretar infrações ao disposto na LGPD.

Neste cenário, o acesso de terceiros aos dados obtidos pela empresa (que captou os dados junto ao titular e portanto controladora dos dados segundo a LGPD) impossibilita o pleno controle da utilização dos dados, tendo efeitos diretos na limitação aos direitos do titular, como o conhecimento do tratamento dos dados e seus fins, à sua imediata exclusão, se pedida, entre outros. 

Neste cenário, no qual a empresa insere os dados coletados em IA sem o devido e inequívoco conhecimento e concordância do titular, o compartilhamento de dados é ilegal e contrário à LGPD. Consequentemente, estaríamos diante de uma hipótese de investigação e possível penalização nos termos da Lei mencionada, em processo administrativo perante a Autoridade Nacional de Proteção de Dados (ANPD). Podendo ainda ser cabíveis possíveis persecuções civis de reparação de danos morais ou materiais.

Portanto, as organizações precisam deter a clara e inequívoca permissão dos clientes para a coleta, análise e tratamento dos dados fornecidos, sempre que estes forem ser objeto de algum dos processos descritos e delimitados na Lei 13.709/2018 (“LGPD”). As consequências para possíveis afrontas à LGPD, discriminatórias e não éticas, poderão ser responsabilizadas civilmente conforme será tratado no tópico a seguir.

Responsabilidade Civil da Inteligência Artificial

Outro tema jurídico de interesse para empresas que utilizam IA são as complexas questões a respeito de responsabilidade civil. Alguns questionamentos podem surgir: em caso de danos causados por decisões ou ações de sistemas de IA, quem é responsável? Os desenvolvedores do sistema, os proprietários da empresa ou o próprio sistema de IA?

Dando um passo atrás, a responsabilidade civil está prevista no Código Civil e diz respeito à assunção dos encargos de uma ação ou omissão que causou prejuízo à outra pessoa, sendo o principal efeito prático da responsabilidade civil a indenização pelo causador do dano à vítima. 

No Brasil, entre outros exemplos, podemos citar ações movidas pelo Ministério Público contra agências de viagens online, requerendo a declaração expressa de ilegalidade de “geo-pricing” e “geo-blocking” e o pagamento de indenização aos consumidores lesados por tais práticas. 

Estas práticas são utilizadas no comércio eletrônico para definir o valor de produtos ou serviços a partir de critérios geográficos, possibilitando uma diferenciação tanto para bloquear a oferta entre diferentes países, quanto entre diferentes regiões de um mesmo país. Na prática de “geo-pricing”, o sistema de empresas de e-commerce, a partir de algoritmos (IA) analisa informações como o endereço de IP do usuário, identificando a sua localização geográfica. A partir desta informação o valor do produto ou a oferta a ser disponibilizada é definido a partir de diretrizes colocadas para a IA. O “geo-blocking”, por sua vez, o sistema utiliza as informações geográficas do usuário para bloquear seu acesso a determinada promoção ou produto. 

Para além das discussões a respeito dos negativos efeitos concorrenciais dessas práticas, relembramos que as ações movidas buscam a responsabilização das agências de viagens online pelos danos causados aos consumidores. 

Na via administrativa o Departamento de Proteção e Defesa do Consumidor (“DPDC”), já se pronunciou definitivamente sobre o assunto, condenando as agências envolvidas ao pagamento de multas, que giraram em torno de R$ 7,5 milhões, em virtude da violação de direitos dos consumidores, caracterizando como abusiva a sua conduta. Já os processos judiciais envolvendo o tema continuam em curso.

Outro caso que vale rapidamente ser citado diz respeito às investigações movidas pela Comissão Europeia em face da Amazon, que buscavam averiguar práticas anticompetitivas implementadas pela empresa por meio de IA. A prática investigada foi a utilização de dados comerciais de varejistas independentes para calibrar suas ofertas e promover melhoras e desenvolvimento de produtos próprios da Amazon.

A investigação chegou ao fim diante de um acordo proposto pela própria Amazon, mas a empresa ainda pode sofrer persecuções cíveis a respeito dos danos causados aos comerciantes independentes que utilizavam a plataforma e foram de alguma forma lesados pela prática da empresa.

Em ambos os casos citados acima fica clara a preocupação jurídica com a responsabilização de possíveis danos causados a usuários das plataformas por meio de utilização de IA. A responsabilização deve ser analisada caso a caso, e, a depender das circunstâncias envolvidas, poderá ser atribuída à empresa, ao desenvolvedor da IA ou até mesmo ao sistema de IA, como informado antes, sendo necessária uma avaliação de causa e efeito das ações e colaborações de cada uma das partes para com o resultado final e o dano causado.

Por este motivo, as preocupações com a regulação, com a proteção de dados e aplicação ética do uso de IA devem estar no radar das empresas que já utilizam ou que pretendem incorporar a ferramenta ao dia a dia do negócio. Fica claro, assim, que a evolução tecnológica tem criado novos desafios aos modelos padrões de responsabilidade civil, o que torna difícil a caracterização da responsabilidade e, por assim ser, imprevisível a sua aplicação, já que não é possível prever todos os cenários. 

A seguir abordaremos com maior cuidado pontos relacionados ao tema:

  • Desafios Jurídicos Emergentes e Soluções Potenciais

Conforme mencionado acima, na medida que a inteligência artificial evolui surgem novos desafios jurídicos e regulatórios que precisam ser abordados. Por exemplo, a falta de regulamentação específica para sistemas de IA pode criar incertezas legais e éticas sobre seu uso e impacto.

É neste contexto e buscando direcionar as preocupações suscitadas neste artigo, que o Projeto de Lei 2.338/2023 foi editado no Senado Federal. O PL visa, com os limites típicos de uma legislação estática, tratar dos assuntos relacionados aos temas de: potencial concentração de poder; potencialização de vieses discriminatórios ilícitos e abusivos existentes na sociedade; questões sobre propriedade intelectual e direitos de terceiros; potencial aumento na escala e sofisticação da desinformação; necessidade de maior atenção à proteção de dados pessoais e à segurança cibernética; e mudanças estruturais no mercado de trabalho.

O PL atualmente está na Comissão Temporária Interna sobre Inteligência Artificial, e poderá ser objeto de emendas e alterações pelos legislativos. 

Para lidar com esses desafios, as empresas podem adotar uma abordagem proativa, colaborando com Associações, órgãos reguladores, legisladores e outras partes interessadas para desenvolver padrões éticos e regulamentações claras para o desenvolvimento e uso de IA. Além disso, investir em educação e conscientização sobre questões éticas e legais relacionadas à IA pode ajudar a promover uma cultura de responsabilidade e ética dentro das organizações e, principalmente, pela sociedade.

  • Conclusões: A Importância do Cuidado na Implementação da Inteligência Artificial

À medida que as empresas continuam a adotar e implementar a inteligência artificial (IA) em seus processos e operações, é fundamental que elas estejam cientes dos desafios éticos, legais e regulatórios associados a essa ferramenta em constante evolução. A IA oferece inúmeras oportunidades para melhorar a eficiência, a inovação e o crescimento empresarial, mas também traz consigo preocupações significativas relacionadas ao viés algorítmico, à privacidade dos dados, à responsabilidade civil e à conformidade com as leis e regulamentações.

Portanto, as empresas devem adotar uma abordagem ética e responsável na implementação e utilização da IA incorporando princípios como transparência, justiça, responsabilidade e inclusão em seus sistemas e práticas. Isso envolve a implementação de medidas para mitigar o viés algorítmico, garantir a proteção e privacidade dos dados, e assegurar a conformidade com as leis e regulamentações aplicáveis, como o Código de Defesa do Consumidor e a LGPD. Ao fazer isso, as empresas podem maximizar os benefícios da IA enquanto minimizam os riscos e impactos negativos a ela associados.

No âmbito legal, a definição clara de responsabilidades e a conformidade com as leis e regulamentos pertinentes são fundamentais para evitar potenciais litígios e prejuízos à reputação das empresas. É necessário que as organizações sejam proativas na busca de colaboração com reguladores, legisladores e outras partes interessadas para desenvolver padrões éticos e regulatórios que orientem o uso responsável da inteligência artificial.

Em conclusão, a implementação de IA nas empresas deve ser cuidadosamente gerida para equilibrar a inovação tecnológica com a responsabilidade ética e legal. Somente por meio de uma abordagem consciente e bem regulada as empresas poderão explorar plenamente as vantagens da IA, contribuindo para um desenvolvimento sustentável e justo do mercado e da sociedade como um todo.

Vitor-de-Menezes-Venancio-Martins_C

Vitor Martins

Atuo na área consultiva e contenciosa há mais de 12 anos, tendo atuado em operações de venture capital e M&A em operações relacionadas à nova economia digital. Sócio Fundador do escritório MBM Advogados, responsável pelas áreas de direito e internet e regulação. Graduado em Direito, Pós-Graduado em Direito Empresarial e Mestrando pela FGV Direito São Paulo.

Quem também está com a gente

Empresas, Startups, Centros de Pesquisa e Investidores