Instituto britânico alerta para riscos de extinção da raça humana - Desterro1

ÚLTIMAS

Desterro1

O Blog numero 1 de Desterro.

Publicidade e Propaganda

test banner

PUBLICIDADE CAPA 2 - DESTERRO

test banner

ANUNCIO INTERNO 1

test banner

24 de abr. de 2013

Instituto britânico alerta para riscos de extinção da raça humana

Uma equipa internacional de cientistas, matemáticos e filósofos do Instituto do Futuro da Humanidade, da Universidade de Oxford, na Inglaterra, está a investigar quais são os maiores perigos contra a humanidade.
E eles argumentam num texto acadêmico recém-divulgado, intitulado Riscos Existenciais como Prioridade Global, que autores de políticas públicas devem atentar para os riscos que podem contribuir para o fim da espécie humana.
No ano passado, houve mais textos acadêmicos lançados a respeito de snowboarding do que sobre a extinção humana.
O diretor do Instituto, o sueco Nick Bostrom, afirma que existe uma possibilidade plausível de que este venha a ser o último século da humanidade.
Mas primeiro as boas notícias. Pandemias e desastres naturais podem causar uma perda de vida colossal e catastrófica, mas Bostrom diz acreditar que a humanidade estaria propensa a sobreviver.
Isso porque a nossa espécie já sobreviveu a milhares de anos de doenças, fome, enchentes, predadores, perseguições, terramotos e mudanças ambientais. Por isso, as probabilidades ainda estão a nosso favor.
E ao longo do espaço de um século, ele afirma que o risco de extinção em decorrência do impacto de asteróides e super-erupções vulcânicas continua a ser extremamente pequeno.
Até mesmo as perdas sem precedentes auto-impostas no século XX, com duas guerras mundiais e epidemia de gripe espanhola, deixaram de prevenir a ascensão do crescimento da população humana global.
Uma guerra nuclear poderia causar destruição sem precedentes, mas um número suficiente de indivíduos poderia sobreviver e, assim, permitir, que a espécie continue.
Mas se existem todos esses atenuantes, com o que deveríamos estar preocupados?
Bostrom acredita que entramos numa nova era tecnológica capaz de ameaçar o nosso futuro de uma forma nunca vista antes. Estas são ameaças que não temos qualquer registo de haver sobrevivido.
O diretor do Instituto compara as ameaças existentes a uma arma perigosa nas mãos de uma criança. Ele diz que o avanço tecnológico superou a nossa capacidade de controlar as possíveis consequências.
Experiências em áreas como biologia sintética, nanotecnologia e inteligência artificial estão a avançar para dentro do território do não intencional e o imprevisível.
A biologia sintética, onde a biologia se encontra com a engenharia, promete grandes benefícios médicos, mas Bostrom teme efeitos não previstos na manipulação da biologia humana.
A nanotecnologia, se realizada a nível atómico ou molecular, poderia também ser altamente destrutiva ao ser usada para fins bélicos. Ele tem escrito que governos futuros terão um grande desafio ao controlar e restringir usos inapropriados.
Há também temores em relação à forma como a inteligência artificial ou maquinal possa interagir com o mundo externo. Esse tipo de inteligência orientada por computadores pode ser uma poderosa ferramenta na indústria, na medicina, na agricultura ou para gerir a economia, mas enfrenta também o risco de ser completamente indiferente a qualquer dano incidental.
Sean O'Heigeartaigh, um geneticista do Instituto, traça uma analogia com o uso de algoritmos usados no mercado de ações.
Da mesma forma que essas manipulações matemáticas, argumenta, podem ter efeitos directos e destrutivos sobre economias reais e pessoas de verdade, tais sistemas computacionais podem manipular o mundo verdadeiro.
Em termos de riscos biológicos, ele preocupa-se com boas intenções mal aplicadas, como experiências a visar promover modificações genéticas e reconstruir estruturas genéticas.
Um tema recorrente entre o ecléctico grupo de pesquisadores é sobre a habilidade de criar computadores cada vez mais poderosos.
O pesquisador Daniel Dewey, do Instituto, fala de uma explosão de inteligência, em que o poder de aceleração de computadores torna-se menos previsível e menos controlável.
A inteligência artificial é uma das tecnologias que deposita mais e mais poder em pacotes cada vez menores, afirma o perito americano, um especialista em super inteligência maquinal que trabalhou anteriormente na Google.
Juntamente com a biotecnologia e a nanotecnologia, ele afirma que essas novas tecnologias poderiam gerar um efeito em cadeia, de modo que, mesmo começando com escassos recursos, pode-se criar projectos com potencial de afectar todo o mundo.
O Instituto do Futuro da Humanidade em Oxford integra uma tendência centrada em pesquisar tais grandes temas. O Instituto foi uma iniciativa do Oxford Martin School, que abrange académicos de diferentes áreas, com o intuito de estudar os mais urgentes desafios globais.
Martin Rees, ex-presidente da Sociedade Real de Astronomia britânica é um dos defensores do Centro de Estudos de Risco Existencial e afirma que este é o primeiro século na história mundial em que as maiores ameaças provêm da humanidade.
Nick Bostrom afirma que o risco existencial enfrentado pela humanidade não está no radar de todo mundo. Mas ele argumenta que os riscos virão, caso estejamos ou não preparados.
Existe um gargalo na história da humanidade. A condição humana irá mudar. Pode ser que terminemos numa catástrofe ou que sejamos transformados ao assumir mais controlo sobre a nossa biologia. Não é ficção científica, doutrina religiosa ou conversa de bar.
(Diário Digital)

Espalhe esta matéria para seus amigos no facebook, twitter ou orkut! @Desterro_1 +Dário Cardoso

Nenhum comentário:

Postar um comentário

Deixe seu comentário. Sua opinião é muito importante para o blog.

PUBLICIDADE INTERNA 2

test banner