Preencha os campos abaixo para submeter seu pedido de música:

Músicas recentes:
Veja as músicas que já tocaram por aqui.

Inteligência artificial: quais os riscos que a tecnologia pode gerar?

Ainda que longe das representações pós-apocalípticas do cinema, o avanço da inteligência artificial (IA) no nosso cotidiano, seja na forma de algoritmos das redes sociais ou nos assistentes virtuais como Alexa e Siri, tem gerado preocupação em várias esferas da sociedade. Nomes como Elon Musk, Steve Wozniak, Bill Gates e Stephen Hawking já se manifestaram sobre os riscos gerados pela IA, sendo apoiados por pesquisadores da área. Se tratando de um avanço tecnológico tão almejado no meio científico, o que estaria por trás dessa preocupação?

Certamente não é o caso de se imaginar algo como o personagem do Exterminador do Futuro, vivido pelo ator Arnold Schwarzenegger, que busca a extinção da raça humana. Os receios iniciais são problemas mais palpáveis, como a coleta massiva de dados da população e sua subsequente utilização. Empresas como Google, Amazon e Facebook, por exemplo, não poupam esforços na guerra por informação, dominando sistemas de buscas e conteúdo audiovisual, e mensagens eletrônicas, em todas as partes do mundo.

“Essa monopolização dos dados significa uma monopolização da capacidade de monetizá-los e gerar novos avanços tecnológicos com base neles. A disputa pelos dados é uma disputa central e parte considerável destes serviços está fazendo pelo mundo todo”, analisa o professor de sociologia econômica da Universidade Federal do Ceará Edemilson Paraná.

Governos, por sua vez, aparecem dos dois lados da moeda. Da mesma forma que ouvimos falar na busca pela aprovação de leis como a regulamentação geral, no caso da União Europeia, e da Lei Geral de Proteção de Dados, no Brasil, vemos a popularização de sistemas de reconhecimento facial, monitorando e controlando cidadãos, chegando ao ponto de estabelecer rankings sociais que determinam quem tem direito a receber um benefício ou ter acesso a um serviço. Na China, protestos contra leis de extradição ficaram famosos também pelo uso do reconhecimento facial para identificar manifestantes.

Outro ponto que tem suscitado o debate sobre os limites da IA, ou a falta deles, é a questão de erros na elaboração de perfis criminais. Durante uma reunião pública em junho deste ano, o chefe de polícia de Detroit chegou a admitir que a tecnologia de reconhecimento facial usada pela polícia da cidade “quase nunca” traz uma correspondência exata com a imagem de um suspeito, e “quase sempre” identifica incorretamente as pessoas. No Rio de Janeiro, uma mulher foi detida equivocadamente em julho de 2019 como sendo uma foragida da Justiça condenada por espancar um homem até a morte.

Sistemas de reconhecimento facial ainda geram muita controvérsia. Crédito: Zapp2Photo/Shutterstock

Sistemas de reconhecimento facial ainda geram muita controvérsia. Crédito: Zapp2Photo/Shutterstock

Esses equívocos são ainda mais representativos quando se inclui a questão racial. Um teste realizado em 2018 por pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) e da Universidade de Stanford mostrou que sistemas de reconhecimento facial apresentam uma margem de erro pequena no caso de homens brancos (0,8%), mas considerável em situações que envolvem mulheres negras (de 20% a 34%). Os falsos positivos, de maneira idêntica, também apresentam discrepâncias, sendo de dez a cem vezes maior para negros e asiáticos do que para brancos, conforme estudo do governo dos Estados Unidos feito em 2019.

Superinteligência, armas autônomas e segurança

Enquanto a ideia de um exterminador do futuro – voltando a citar a franquia cinematográfica – pode parecer exagerada, um outro conceito deste mesmo universo é bem mais plausível: a superinteligência, também conhecida como IA Forte, capaz de superar humanos em praticamente todas as tarefas cognitivas. Caso alcançada, uma tecnologia como esta poderia melhorar a si própria constantemente, ultrapassando assim o intelecto humano. E com o controle de outras IAs, presentes em carros, aeronaves, fintechs e até mesmo equipamentos como marcapassos, é imprescindível alinhar os objetivos desta superinteligência com os nossos, especificamente antes que ela se torne “super”.

Desenvolvimento de armas autônomas pode gerar uma nova corrida armamentista. Crédito: Gorodenkoff/Shutterstock

Desenvolvimento de armas autônomas pode gerar uma nova corrida armamentista. Crédito: Gorodenkoff/Shutterstock

E se esse conceito pode demorar décadas, séculos ou até mesmo nunca chegar, já que ainda há muita divergência entre expertos e teóricos, uma realidade palpável é a das armas autônomas. Drones e tanques inteligentes, descritos como a terceira revolução das guerras, depois da pólvora e das armas nucleares, são desenvolvidos por vários países, entre eles Estados Unidos, Rússia e China. Argumenta-se que eles podem diminuir o número de mortes por substituírem seres humanos, mas ao serem programados para atingir um objetivo pré-definido a qualquer custo, há a preocupação de qual será o valor dado às vidas de inocentes.

Como diminuir os riscos?

Em 2017, pesquisadores se reuniram na Califórnia para debater medidas de redução e controle de riscos. Da conferência resultou um documento chamado de Princípios de Asilomar, que lista importantes pontos a serem considerados no avanço da inteligência artificial, como segurança, privacidade e respeito aos valores e direitos humanos, por exemplo. Empresas também têm criado suas próprias diretrizes, com Microsoft e Google enumerando critérios como transparência, imparcialidade, inclusão e benefício social entre seus princípios.

A Comissão Europeia, por sua vez, reforça que a IA deve ser centrada nas pessoas, promovendo direitos, e com participação e controle dos seres humanos, respeitando, dessa maneira, diversidades como gênero, raça e orientação sexual. Igualmente, a transparência é ponto chave, com ênfase na garantia de rastreabilidade e explicabilidade, assegurando sempre o direito à privacidade e ao controle do indivíduo sobre seus dados.

Fonte: Agência Brasil Future of Life Institute

Deixe seu comentário:

PUBLICIDADE

Últimas do blog

Curta no social