Qual é a controvérsia da inteligência artificial?

Ricardo Alvarez’s Post

1

Like Comment

To view or add a comment, sign in

1

Like Comment

To view or add a comment, sign in

Like Comment

To view or add a comment, sign in

1

Like Comment

To view or add a comment, sign in

Like Comment

To view or add a comment, sign in

1

Like Comment

To view or add a comment, sign in

1

Like Comment

To view or add a comment, sign in

2

Like Comment

To view or add a comment, sign in

Like Comment

To view or add a comment, sign in

2

Like Comment

To view or add a comment, sign in

1

Like Comment

To view or add a comment, sign in

2,919 followers

  • 3000+ Posts
  • 6 Articles

View Profile

Follow

More from this author

  • Sobre os refugiados no mundo

    Ricardo Alvarez 5y

  • Sobre o sistema prisional

    Ricardo Alvarez 5y

  • Boas festas

    Ricardo Alvarez 5y

Explore topics

  • Workplace
  • Job Search
  • Careers
  • Interviewing
  • Salary and Compensation
  • Internships
  • Employee Benefits
  • See All

Cerca de 10 meses depois de ter anunciado que ia absorver o departamento da área da saúde do laboratório britânico de inteligência artificial DeepMind, a Google anunciou que a decisão é mesmo oficial. Tal como indicou Dominic King, clinical lead da DeepMind, numa publicação do blog da gigante da tecnologia, agora, a empresa de IA fará parte do ramo de medicina da empresa da Alphabet: a Google Health.

O atraso na integração é considerado por muitos como um sinal do quão controverso este tem sido desde o seu início. A Google tem mantido uma relação tensa com o laboratório inglês, o qual adquiriu em 2014, uma vez que este tem oferecido resistência à forma como a empresa planeia explorar os seus produtos. A DeepMind esteve também envolvida num debate controverso sobre da privacidade dos dados dos pacientes britânicos na aplicação que tinha criado, uma vez que os seus registos estavam a ser partilhados com a empresa de forma não consentida.

De acordo com a BBC, depois deste escândalo em 2016, Mustafa Suleyman, cofundador da DeepMind, decidiu prometer aos utilizadores que a sua empresa opera de forma autónoma, sendo que os dados dos pacientes nunca seriam associados à Google. Em 2017, a parceria entre o serviço nacional de saúde britânico (NHS) e o laboratório foi declarada ilegal, mas ambas as partes continuaram a trabalhar em conjunto.

O anúncio oficial da integração chega um mês depois de Suleyman, que estava a liderar a divisão agora a cargo de Dominic King, ter indicado que tiraria uma licença de saída por um tempo indeterminado e por motivos ainda desconhecidos.

Tal como avança o Business Insider, o qual teve contacto com uma fonte interna, a Google tem intenções de tomar controlo do ramo da DeepMind que se foca na aplicação da inteligência artificial na medicina, sendo uma decisão que não só deixaria Suleyman sem um papel definido na empresa britânica, mas também a tornaria numa espécie de organização dedicada à pesquisa.

Ainda que longe das representações pós-apocalípticas do cinema, o avanço da inteligência artificial (IA) no nosso cotidiano, seja na forma de algoritmos das redes sociais ou nos assistentes virtuais como Alexa e Siri, tem gerado preocupação em várias esferas da sociedade. Nomes como Elon Musk, Steve Wozniak, Bill Gates e Stephen Hawking já se manifestaram sobre os riscos gerados pela IA, apoiadpos por pesquisadores da área. Se tratando de um avanço tecnológico tão almejado no meio científico, o que estaria por trás dessa preocupação?

Certamente não é o caso de se imaginar algo como o personagem do Exterminador do Futuro, vivido pelo ator Arnold Schwarzenegger, que busca a extinção da raça humana. Os receios iniciais são problemas mais palpáveis, como a coleta massiva de dados da população e sua subsequente utilização.

publicidade

Empresas como Google, Amazon e Facebook, por exemplo, não poupam esforços na guerra por informação, dominando sistemas de buscas e conteúdo audiovisual, além de mensagens eletrônicas, em todas as partes do mundo.

Qual é a controvérsia da inteligência artificial?

“Essa monopolização dos dados significa uma monopolização da capacidade de monetizá-los e gerar novos avanços tecnológicos com base neles. A disputa pelos lados é uma disputa central e parte considerável destes serviços está fazendo pelo mundo todo”, analisa o professor de sociologia econômica da Universidade Federal do Ceará Edemilson Paraná.

Ao passo que há leis pelo mundo que dão proteção à privacidade e uso de dados do usuário, como a GDPR, na Europa, e a recém-sancionada Lei Geral de Proteção de Dados, no Brasil, vemos a popularização de sistemas de reconhecimento facial, monitorando e controlando cidadãos. Na China, protestos contra leis de extradição ficaram famosos por discutir a vigilância massiva e efeitos do reconhecimento facial em toda população. 

Outro ponto que tem suscitado o debate sobre a falta de limites da IA, é a questão de erros na elaboração de perfis criminais. Durante uma reunião pública em junho deste ano, o chefe de polícia de Detroit chegou a admitir que a tecnologia de reconhecimento facial usada pela polícia da cidade “quase nunca” traz uma correspondência exata com a imagem do suspeito, e “quase sempre” identifica incorretamente as pessoas. No Rio de Janeiro, uma mulher foi detida equivocadamente em julho de 2019 acusada de ser uma foragida da Justiça, condenada por espancar um homem até a morte.

Qual é a controvérsia da inteligência artificial?

Sistemas de reconhecimento facial ainda geram muita controvérsia. Crédito: Zapp2Photo/Shutterstock

Esses equívocos são ainda mais representativos quando se inclui a questão racial. Um teste realizado em 2018 por pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) e da Universidade de Stanford mostrou que sistemas de reconhecimento facial apresentam uma margem pequena de erro no caso de homens brancos (0,8%), mas considerável em situações que envolvem mulheres negras (de 20% a 34%). Os falsos positivos, de maneira idêntica, também apresentam discrepâncias, sendo de dez a cem vezes maior para negros e asiáticos se comparado aos brancos, conforme estudo do governo dos Estados Unidos feito em 2019.

Superinteligência, armas autônomas e segurança

Enquanto a ideia de um exterminador do futuro pode parecer exagerada, um outro conceito deste mesmo universo é bem mais plausível: a superinteligência, também conhecida como IA Forte, capaz de superar humanos em praticamente todas as tarefas cognitivas.

Caso alcançada, uma tecnologia como esta poderia se auto-aperfeiçoar constantemente, ultrapassando o intelecto humano. E com o controle de outras IAs, presentes em carros, aeronaves, fintechs e até mesmo equipamentos como marcapassos, é imprescindível alinhar os objetivos desta superinteligência aos nossos, especificamente antes que ela se torne “super”.

Qual é a controvérsia da inteligência artificial?

Desenvolvimento de armas autônomas pode gerar uma nova corrida armamentista. Crédito: Gorodenkoff/Shutterstock

Apesar do conceito poder demorar décadas, séculos, já que ainda há muita divergência entre experts e teóricos, uma realidade tangível e que tem ganhado força e investimentos são as armas autônomas. Drones e tanques inteligentes, descritos como a terceira revolução das guerras, depois da pólvora e das armas nucleares, são desenvolvidos por vários países, entre eles Estados Unidos, Rússia e China.

Argumenta-se que eles podem diminuir o número de mortes por substituírem seres humanos, entretanto, ao serem programados para atingir um objetivo pré-definido a qualquer custo, surge uma  preocupação ainda maior: qual será o valor dado às vidas inocentes.

Como diminuir os riscos?

Em 2017, pesquisadores se reuniram na Califórnia para debater medidas de redução e controle de riscos. Desta conferência resultou um documento Princípios de Asilomar, que lista importantes pontos a serem considerados no avanço da inteligência artificial, como segurança, privacidade e respeito aos valores e direitos humanos, por exemplo. Empresas também têm criado suas próprias diretrizes. Microsoft e Google, por exemplo, enumeraram critérios como transparência, imparcialidade, inclusão e benefício social entre seus princípios.

A Comissão Europeia, por sua vez, reforça que a IA deve ser centrada nas pessoas, promovendo direitos, e com participação e controle dos seres humanos, respeitando, desta forma, diversidades como gênero, raça e orientação sexual. Igualmente, a transparência é um ponto-chave, com ênfase na garantia de rastreabilidade e explicabilidade, assegurando o direito à privacidade e ao controle do indivíduo sobre seus dados.

Fonte: Agência Brasil e Future of Life Institute

Qual a controvérsia da inteligência artificial?

controvérsias fascinantes em que os principais especialistas mundiais discordam, como: o impacto futuro da IA no mercado de trabalho; se/quando a IA de nível humano será desenvolvida; se isso levará a uma explosão de inteligência; e se isso é algo que devemos acolher ou temer.

Quais são os principais perigos da inteligência artificial?

Preconceitos reproduzidos por máquinas e sistemas que utilizam bases de dados ruins ou pouco confiáveis. Os riscos das armas autônomas. O receio de que a inteligência artificial venha a causar consequências ainda inimagináveis pelos humanos. O medo de que a AI um dia supere as capacidades e a inteligência humana.