Documentário traz de volta a saudosa TV Manchete - Confira o Teaser

quinta-feira, 12 de março de 2009

Legislação robótica

Cientistas querem código de conduta para aqueles que, acreditam, estarão cada vez mais entre nós

Aceita um drinque? Asimo, o robô humanoide da Honda, serve bebidas para a imprensa em um shopping de Kuala Lumpur, na Malásia

Na ficção científica, já existem, há mais de 60 anos, as famosas leis da robótica, diretrizes criadas pelo escritor russo Isaac Asimov (1920-1992) que ditavam a "ética" dos robôs. Mas o mundo real ainda carece de uma iniciativa parecida. E, para um cientista britânico, já está mais do que na hora de começar a pensar em algo do tipo. Para Noel Sharkey, da Universidade de Sheffield, no Reino Unido, os robôs, de forma discreta, mas constante, estão deixando de ser elementos importantes apenas em laboratórios e linhas de montagem de fábricas para se tornarem habitantes do nosso cotidiano.

"Desde a virada do século, as vendas de robôs de serviço pessoal e profissional têm crescido e devem atingir um número total de 5,5 milhões em 2008", diz Sharkey. "Esse número, que facilmente supera os cerca de 1 milhão de robôs industriais operacionais no planeta, deve subir para 11,5 milhões até 2011." Entre esses robôs de serviço, muitos já estão sendo usados para ajudar a cuidar de crianças e idosos. "Na área de cuidados pessoais, companhias japonesas e sul-coreanas desenvolveram robôs que monitoram crianças e têm recursos para jogar videogame, conduzir jogos de quiz verbais, reconhecimento de voz, de face e conversação", diz.

Pesquisas sobre o desempenho desses robôs conduzidas nos Estados Unidos e no Japão mostraram que as crianças criam fortes laços com eles - a ponto de preferirem, na maioria dos casos, um robô a um ursinho de pelúcia. E aí, conforme essas máquinas ficam cada vez mais sofisticadas, surge um dilema ético: é certo permitir que crianças sejam criadas por robôs? De que maneira isso pode impactar em suas habilidades sociais?

Para Sharkey, o mesmo dilema se apresenta para máquinas destinadas a cuidar de idosos. Por mais eficientes que elas sejam, não seria ruim deixar uma pessoa, ao fim de sua vida, sem o privilégio dos cuidados (e do calor humano) fornecidos por outra pessoa? Na década de 1940, Isaac Asimov já pensou que seria preciso criar um código de ética - embutido na programação dos robôs - para evitar que fossem mal utilizados. As três leis da robótica, que ele descreveu pela primeira vez num conto de ficção científica publicado em 1942, são as seguintes:

• Primeira Lei: um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano seja ferido.

• Segunda Lei: um robô deve obedecer às ordens dos seres humanos, exceto quando elas conflitam com a Primeira Lei.

• Terceira Lei: um robô precisa proteger sua própria existência, contanto que ela não conflite com a Primeira ou a Segunda leis.

Inteligente e conciso. Mas as leis da ficção não têm como dar conta do recado no mundo real, diante de dilemas que já aparecem hoje na sociedade. Por isso, Sharkey defende que seja iniciado, o mais rápido possível, um debate para definir os limites para as aplicações robóticas, quando as fronteiras da ética parecem mais tênues. Em uma livre interpretação jornalística, podemos dizer que seu artigo se resume em duas "novas" leis da robótica:

• Primeira Lei: um robô não pode cumprir ordens que acarretem em potenciais malefícios psicológicos para algum ser humano.

• Segunda Lei: em caso de combate, um robô não pode decidir por si só que humanos devem ser atacados.

Seu argumento foi apresentado em artigo publicado em dezembro passado pela revista científica americana "Science".

Soldados droides
Além de apontar os problemas potenciais com robôs de serviço pessoal, Sharkey também destaca uma outra classe de máquinas que enfrenta sérios dilemas de ordem ética: os robôs de guerra. Os EUA, por exemplo, estão fazendo vultosos investimentos para o desenvolvimento de robôs capazes de executar tarefas de forma completamente autônoma em cenários de conflito.

Mas os desafios de inteligência artificial envolvidos são grandes demais para qualquer máquina criada até hoje. "Os problemas éticos emergem porque nenhum sistema computacional pode discriminar entre combatentes e inocentes num encontro próximo", argumenta. Além disso, o robô também teria de ser capaz de discriminar sobre o uso ou não de força letal num ataque.

Na diversão e na guerra: crianças se divertem com o robô desenvolvido pela empresa japonesa Tmsuk, em um supermercado do Japão. A máquina consegue reconhecer as pessoas e chamá-las pelo nome. À direita, especialista do esquadrão antibombas da Áustria controla um robô programado para detectá-las

Hoje, por mais que os exércitos possuam mísseis "inteligentes", o alvo original e a força usada são definidos por um humano. Colocar isso na mão de máquinas exigirá que elas tenham uma percepção cognitiva muito mais apurada do que elas possuem atualmente. Mas isso não impede os militares de seguir desenvolvendo robôs com esses fins - e daí surge a necessidade do debate. "Robôs para cuidados e para guerra representam apenas duas de muitas áreas eticamente problemáticas que logo aparecerão, com o rápido crescimento e a disseminação diversificada de aplicações robóticas", diz Sharkey. "Cientistas e engenheiros que trabalham em robótica devem pensar sobre os potenciais perigos de seu trabalho, e a discussão pública e internacional é vital para estabelecer diretrizes políticas para aplicação segura e ética, antes que as diretrizes surjam sozinhas."

Nenhum comentário:

Postar um comentário