quinta-feira, 22 de abril, 2021

Europa propõe regras estritas para inteligência artificial

A União Europeia revelou regulamentos rígidos na quarta-feira (21) para regulamentar o uso de inteligência artificial, uma política inédita que descreve como empresas e governos podem usar uma tecnologia vista como um dos avanços científicos mais significativos, mas eticamente repletos de questões preocupantes recentes.
O projeto de regras estabeleceria limites em torno do uso de inteligência artificial em uma série de atividades, desde carros autônomos até decisões de contratação, empréstimos bancários, seleções de matrículas escolares e pontuação em exames. Também abrangeria o uso de inteligência artificial mediante a aplicação da lei e sistemas judiciais — áreas consideradas de “alto risco” porque podem ameaçar a segurança das pessoas ou os direitos fundamentais.
Alguns usos seriam totalmente proibidos, incluindo o reconhecimento facial ao vivo em espaços públicos, embora houvesse várias isenções para segurança nacional e outros fins.
A regulamentação de 108 páginas é uma tentativa de regular uma tecnologia emergente antes que ela se torne dominante. As regras têm implicações de longo alcance para as principais empresas de tecnologia que investiram recursos no desenvolvimento de inteligência artificial, incluindo Amazon, Google, Facebook e Microsoft, mas também inúmeras outras empresas que usam o software para desenvolver medicamentos, subscrever apólices de seguro e julgar a capacidade de crédito. Os governos têm usado versões da tecnologia na justiça criminal e na alocação de serviços públicos, como apoio financeiro.
As empresas que violarem os novos regulamentos, que podem levar vários anos para passar pelo processo de formulação de políticas da União Europeia, podem enfrentar multas até de 6% das vendas globais.
“Na inteligência artificial, a confiança é uma obrigação, não algo bom de se ter”, disse Margrethe Vestager, vice-presidente executiva da Comissão Europeia que supervisiona a política digital para o bloco de 27 países, em um comunicado. “Com essas regras históricas, a UE está liderando o desenvolvimento de novas normas globais para garantir que a IA seja confiável.
”Os regulamentos da União Europeia exigiriam que as empresas que fornecem inteligência artificial em áreas de alto risco forneçam aos reguladores provas de sua segurança, incluindo avaliações de risco e documentação explicando como a tecnologia está tomando decisões. As empresas também devem garantir a supervisão humana sobre como os sistemas são criados e usados.
Alguns aplicativos, como chatbots que fornecem conversas humanas em situações de atendimento ao cliente e software que cria imagens manipuladas, difíceis de detectar como “deepfakes”, teriam que deixar claro para os usuários que o que eles estavam vendo foi gerado por computador.
Na última década, a União Europeia tem sido o regulador mais agressivo do mundo da indústria de tecnologia, com outras nações frequentemente usando suas políticas como modelo. O bloco já promulgou os regulamentos de privacidade de dados mais abrangentes do mundo e está debatendo leis antitruste e de moderação de conteúdo adicionais.
Mas a Europa não está mais sozinha na pressão por uma supervisão mais rígida. As maiores empresas de tecnologia estão agora enfrentando uma avaliação mais ampla de governos ao redor do mundo, cada um com suas próprias motivações políticas, para limitar o poder da indústria.
Nos Estados Unidos, o presidente Biden encheu seu governo de críticos do setor. A Grã-Bretanha está criando um regulador de tecnologia para policiar a indústria. A Índia está restringindo a supervisão das mídias sociais. A China tem como alvo gigantes da tecnologia doméstica, como Alibaba e Tencent.
Os resultados nos próximos anos podem remodelar a forma como a Internet global funciona e como as novas tecnologias são usadas, com as pessoas tendo acesso a diferentes conteúdos, serviços digitais ou liberdades online com base nos países em que estão.
A inteligência artificial — na qual as máquinas são treinadas para realizar trabalhos e tomar decisões por conta própria estudando grandes volumes de dados — é vista por tecnólogos, líderes empresariais e funcionários do governo como uma das tecnologias mais transformadoras do mundo, prometendo grandes ganhos de produtividade.
Mas, à medida que os sistemas se tornam mais sofisticados, pode ser mais difícil entender por que o software está tomando uma decisão, um problema que pode piorar à medida que os computadores se tornem mais poderosos. Os pesquisadores levantaram questões éticas sobre seu uso, sugerindo que ele poderia perpetuar os preconceitos existentes na sociedade, invadir a privacidade ou resultar na automatização de mais empregos.
A divulgação do projeto de lei pela Comissão Europeia, órgão executivo do bloco, gerou reações mistas. Muitos grupos da indústria expressaram alívio pelo fato de os regulamentos não serem mais rígidos, enquanto grupos da sociedade civil disseram que deveriam ter ido mais longe.
“Tem havido muita discussão nos últimos anos sobre o que significaria regulamentar a IA, e a opção alternativa até agora tem sido não fazer nada e esperar para ver o que acontece”, disse Carly Kind, diretora do Ada Lovelace Instituto de Londres, que estuda o uso ético da inteligência artificial. “Esta é a primeira vez que um país ou bloco regional tenta.
”A Sra. Kind disse que muitos temem que a política seja excessivamente ampla e deixe muita discrição para que as empresas e desenvolvedores de tecnologia se autorregulem.
“Se não estabelecer linhas vermelhas estritas e diretrizes e limites muito firmes sobre o que é aceitável, isso abre muito para interpretação”, disse ela.
O desenvolvimento de inteligência artificial justa e ética tornou-se uma das questões mais controversas no Vale do Silício. Em dezembro, uma colíder de uma equipe do Google que estudava os usos éticos do software disse que ela foi demitida por criticar a falta de diversidade da empresa e os preconceitos embutidos em softwares de inteligência artificial modernos. Debates cresceram dentro do Google e outras empresas sobre a venda de software de ponta para uso militar aos governos.
Nos Estados Unidos, os riscos da inteligência artificial também estão sendo considerados pelas autoridades governamentais.Esta semana, a Federal Trade Commission alertou contra a venda de sistemas de inteligência artificial que usam algoritmos preconceituosos racialmente, ou que podem “negar às pessoas emprego, moradia, crédito, seguro ou outros benefícios”.
Em outro lugar, em Massachusetts e cidades como Oakland, Califórnia; Portland, Oregon.; e São Francisco, os governos tomaram medidas para restringir o uso de reconhecimento facial pela polícia.
Mundo Digital - 22/04/2021
Outras noticias
DATAMARK LTDA. © Copyright 1998-2024 ®All rights reserved.Av. Brig. Faria Lima,1993 3º andar 01452-001 São Paulo/SP