Cientistas e engenheiros alertam para os perigos da inteligência artificial

14

Receba atualizações em tempo real diretamente no seu dispositivo, inscreva-se agora.

Recentemente, foi divulgada uma carta aberta pedindo cautela para garantir que máquinas inteligentes não sejam executadas de maneira irresponsável, e ela foi assinada por um grande e crescente número de pessoas, incluindo algumas das principais figuras da área de inteligência artificial.

O medo de nossas próprias criações remontam ao cenário de Frankenstein, e de filmes como O Exterminador do Futuro, dando-nos uma nova abordagem (ou melhor, um experimento de pensamento) para discutir o que aconteceria se os robôs parassem de receber ordens humanas.

Em dezembro, Stephen Hawking deu reinício a um velho debate sobre os problemas da inteligência artificial. Como ele é alguém cuja a capacidade de comunicação depende exclusivamente da tecnologia de um computador avançado, Hawking dificilmente poderia ser ignorado (mesmo que em ciência não exista autoridades).

A carta foi divulgada pela Future of Life Institute, uma organização de voluntários que se descreve como “trabalhadores que investigam os riscos existenciais que a humanidade enfrenta”. Segue a nota:

“Os recursos que são oferecidos nessas áreas geralmente cruzam o limiar da pesquisa de laboratório em tecnologias economicamente valiosas, um ciclo virtuoso que acontece mesmo em pequenas melhorias no desempenho que valem grandes somas de dinheiro, levando a maiores investimentos em pesquisa. Agora existe um amplo consenso de que a pesquisa em IA está progredindo de forma constante, e que seu impacto na sociedade é susceptível de aumentar. Os benefícios potenciais são enormes, uma vez que tudo que a civilização tem para oferecer é um produto da inteligência humana; não podemos prever o que poderíamos conseguir quando essa inteligência for ampliada pelas ferramentas fornecidas a IA, mas a erradicação da doença e da pobreza não são insondáveis. Devido ao grande potencial da AI, é importante pesquisar como colher seus benefícios, evitando potenciais armadilhas “.

Os autores acrescentam que “os sistemas de IA devem fazer o que quer que eles façam”, e definem que as prioridades na investigação ajudarão a “maximizar o benefício social da AI”.

Qualquer um pode assinar, e no momento da edição deste texto bem mais de mil pessoas já o fizeram. Apesar de muitos não indicarem qualquer afiliação, nomes como Elon Musk e o próprio Stephen Hawking são facilmente reconhecidos. Muitos outros nomes da lista figuram entre os principais pesquisadores na área de TI ou filosofia, incluindo a equipe da IBM por trás do supercomputador Watson.

Com tanto peso intelectual e financeiro, existe uma boa perspectiva para a realização de pesquisas nas áreas propostas. Musk disse que investe em empresas que pesquisam em IA. Mas ele teme que, mesmo que a maioria dos pesquisadores se comportem de forma responsável, na ausência de uma regulamentação internacional, uma única nação desonesta ou corporação poderia produzir máquinas auto-replicantes cujas prioridades poderiam ser muito diferentes para a humanidade.

Nota

Em uma notícia publicada na New Scientist, um especialista decidiu rebater algumas das afirmações do físico Stephen Hawking sobre os possíveis problemas em Inteligência Artificial. O autor levanta algumas questões científico-filosóficas sobre como analisar os perigos da Inteligência Artificial, se quiser ler o artigo completo, clique aqui.

Fonte

Stephen Luntz. Scientists and engineers warn of the dangers of artificial intelligence. 2015.

Receba atualizações em tempo real diretamente no seu dispositivo, inscreva-se agora.

Comentários
Carregando...