quarta-feira, 5 de junho de 2013

Como evitar que as máquinas voltem-se contra os humanos?

Ninguém quer que os robôs dominem o mundo e destruam a raça humana e, de acordo com a comunidade científica, robôs militares precisam ser submetidos a um código de honra, ou poderiam se voltar contra seu “mestre”

A ética para os robôs foi, primeiramente, sugerida pelo mestre da ficção científica Isaac Asimov, na obra "Eu, Robô". Agora, os americanos, estão considerando seriamente a idéia.

Não é segredo que os EUA adoram investir em tecnologia militar – e estão tentando desenvolver um robô nos mesmos moldes do Exterminador do Futuro. No entanto, os problemas já começaram antes mesmo dos projetos.

Em 2007, um robô que estava com problemas técnicos matou 9 e feriu 14 soldados amigos.

Quem pode ser considerado culpado quando um robô autônomo com mau funcionamento mata uma pessoa? Quem desenhou o projeto? Quem construiu o robô? A própria máquina?” declara Patrick Lin, pesquisador da Universidade Estadual Politécnica da Califórnia, autor do artigo “Robôs Militares Autônomos: Riscos, ética e design”.

O Congresso quer que nenhum avião militar seja pilotado por humanos. Em 2015, nenhum tanque de guerra deve ser tripulado por pessoas. Essa pressa pode causar danos no desenvolvimento dos robôs” explica Lin.

Esperamos que os americanos levem o projeto das leis da robótica adiante. Afinal, não queremos acordar, um dia, em um mundo onde as máquinas controlam o planeta – deixemos isso para os filmes de Hollywood.

Confira, abaixo, a lista das três leis da robótica criada por Isaac Asimov:

1ª lei: Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.
2ª lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens contrariem a Primeira Lei.
3ª lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira e Segunda Leis.

Quando falamos de robôs militares matadores, as leis acima são inúteis. [Telegraph] Miguel Kramer

Nenhum comentário:

Postar um comentário