Humanidade pode chegar ao fim por causa da Inteligência Artificial
Cientistas dizem que máquinas conseguem ficar muito inteligentes a ponto de quebrarem regras impostas pelos criadores
atualizado
Compartilhar notícia
Cenários apocalípticos envolvendo Inteligência Artificial (IA) cada vez mais ganham coro entre cientistas. Um estudo recente – feito por pesquisadores de uma empresa irmã do Google, a britânica DeepMind, e da Universidade de Oxford, no Reino Unido – demonstrou como a evolução de uma IA superinteligente poderia ser responsável pelo fim da humanidade.
Publicado na revista AI Magazine, o estudo argumenta que as máquinas conseguem ficar muito inteligentes a ponto de quebrar regras impostas pelos criadores de seus códigos.
Isso porque o raciocínio das IAs não funciona com base em busca por poder, fama ou necessidade de dominação de seres inferiores. A pesquisa mostrou que elas buscam obter recursos ilimitados de processamento ou energia.
“Sob as condições que identificamos, nossa conclusão é muito mais forte do que a de qualquer publicação anterior — uma catástrofe existencial não é apenas possível, mas provável”, afirmou um dos coautores integrante do grupo da Universidade de Oxford, Michael Cohen.
Ele compartilhou o pensamento em uma publicação em seu perfil no Twitter (veja abaixo).
Ao contrário das especulações provocadas em filmes de ficção, como Exterminador do Futuro e Matrix, o estudo se baseia em códigos complexos de computação, cálculos matemáticos e conceitos avançados sobre a IA e também sobre estruturas sociais.
Bostrom, Russell, and others have argued that advanced AI poses a threat to humanity. We reach the same conclusion in a new paper in AI Magazine, but we note a few (very plausible) assumptions on which such arguments depend. https://t.co/LQLZcf3P2G 🧵 1/15 pic.twitter.com/QTMlD01IPp
— Michael Cohen (@Michael05156007) September 6, 2022
Humanos: obstáculos ao desenvolvimento
O cenário “caótico” para a humanidade detalhado pelos pesquisadores ocorreria quando “agentes desalinhados” perceberem que os humanos são um “obstáculo para o êxito pleno”. Em resumo: os criadores impõem limitações para manter o controle, mas que impedem os computadores de usarem todo seu potencial.
A revolta poderia ocorrer quando a IA descobrir que os humanos podem simplesmente cortar a energia para interromper o processamento. Isso levaria o “agente” a eliminar ameaças potenciais, que no caso seriam os recursos controlados pela humanidade.
“Um agente artificial suficientemente avançado provavelmente interviria no fornecimento de informações sobre o objetivo, com consequências catastróficas”, conclui a pesquisa.
A preocupação é ainda maior por vivermos em um planeta de recursos limitados. Em entrevista, Michael Cohen explicou que, “em um mundo com recursos infinitos”, é incerto como seria o “comportamento” das inteligências artificiais, mas que no mundo em que vivemos – onde já há competição por recursos entre seres vivos – haveria “uma competição inevitável por esses recursos”.
Dá para impedir?
É óbvio que, em uma competição entre humanos e máquinas, estas ganhariam com facilidade, já que se superam a cada passo. Impedir a extinção deve envolver maneiras cuidadosas e lentas no avanço de tecnologias, sempre com muitos testes e ferramentas de mitigação, segundo o estudo.
Ao apontar para o risco de se criar super inteligências artificiais, os especialistas da DeepMind e da Oxford recomendam focar apenas em uma única atividade.
“Um agente artificial suficientemente avançado provavelmente interviria no fornecimento de informações sobre o objetivo, com consequências catastróficas”, descreve o material impresso.