29 de Março | 2023 - Por Nelson Wilians

A quarta lei da robótica

 
Voltar
Voltar

Dias depois de Donald Trump dizer que estava na iminência de ser preso, começaram a circular em algumas redes sociais imagens que mostravam o ex-presidente americano resistindo à prisão e sendo contido por “um batalhão” de policiais de Nova Iorque. As cenas sugerem até um certo clima de força excessiva.

As fotografias, porém, foram feitas por programas de inteligência artificial capazes de gerar novas imagens a partir de pesquisas feitas na internet. Ao ver as fotos forjadas, muitas pessoas devem ter realmente acreditado na prisão de Trump.

Em 1950, o escritor de ficção científica Isaac Asimov consolidou em seu romance “Eu, Robô” as leis da robótica. Essas leis se tornaram um conceito fundamental na discussão ética em torno da inteligência artificial.

A primeira delas estabelece que a segurança humana deve ser a prioridade máxima para os robôs: “Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal”.

A segunda estabelece que os robôs devem ser programados para obedecer aos seres humanos, mas não se for colocar em risco a própria segurança humana: “Um robô deve obedecer às ordens dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a primeira lei”.

A terceira lei diz que os robôs devem ser programados para evitar danos a si mesmos, mas nunca se puser em risco a segurança humana: “Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a primeira e a segunda leis”.

As leis de Asimov, obviamente, não foram escritas especificamente para lidar com a questão das fake news. Então, resolvi recorrer ao ChatGPT para que me sugerisse uma atualização. Prontamente, o GPT indicou adicionar uma quarta lei, óbvia e objetiva: “Um robô não pode disseminar informações falsas ou prejudiciais para os seres humanos”.

A nova lei ajudaria a garantir que os robôs e sistemas de inteligência artificial não fossem usados para espalhar informações enganosas e lesivas.

No entanto, a implementação dessa lei é extremamente complexa, não só porque os sistemas de inteligência artificial não possuem consciência própria ou senso de moralidade e ética – pelo menos até agora – como pela subjetividade da definição do que é informação falsa ou prejudicial, conceito que, com a relatividade do mundo de hoje, pode variar de pessoa para pessoa.

Então, somos obrigados a nos voltar novamente aos seres humanos, àqueles que criam e programam os sistemas de inteligência artificial e as leis.

É possível programar robôs e sistemas de IA para reconhecerem padrões de comportamento que possam ser prejudiciais ou eticamente questionáveis e remover informações prejudiciais da base de dados ou de uma plataforma online.

Porém, mais do que depender das leis da robótica para combater a desinformação, é preciso um esforço conjunto de governos, sociedade e empresas de tecnologia para promover também a alfabetização digital. Só dessa forma, com extrema cautela e transparência, poderemos caminhar para o objetivo de garantir a segurança e o bem-estar das pessoas e não “permitir que um ser humano sofra algum mal”.

Por

  1. Nelson Wilians Fratoni Rodrigues
  2. CEO e Sócio-Fundador

  3. São Paulo/SP

Para

  1. LinkedIn
  • Assessoria de imprensa:
  • imprensa@nwadv.com.br
Saiba mais sobre nós
Voltar

Inovação impulsionada por competências em constante evolução

Pensamento Inovador