Em mãos erradas, a IA pode ser uma ‘arma química’

Artigos

Em mãos erradas, a IA pode ser uma ‘arma química’

Há poucos dias, alguns meios de comunicação trouxeram a informação de que bancos brasileiros estão restringindo o uso do ChatGPT por seus funcionários. A plataforma, como já admitiu a sua desenvolvedora, a OpenAI, é aprimorada com informações inseridas pelos próprios usuários. Além de ficarem guardados nos servidores da empresa, esses dados sensíveis podem ser expostos em caso de hackeamento da ferramenta ou virem à tona por uma falha no sistema.

Essa é uma tendência que começou nos Estados Unidos, quando empresas de tecnologia e grandes bancos americanos impuseram restrições ao uso da plataforma, devido à preocupação com o vazamento de dados confidenciais. Entre essas empresas estão a Apple, Amazon, JPMorgan Chase e Citigroup.

Ainda que não seja o primeiro chatbot lançado ao público, o GPT está sendo considerado muito mais avançado do que seus antecessores, capaz de resolver problemas complicados, escrever ensaios e resumir registros regulatórios, embora ainda cometa muitos erros, de acordo com relatos de usuários.

Algumas escolas americanas também estão proibindo o uso da plataforma por temer que seus alunos usem o chatbot para colar em testes e ensaios, conforme noticiou o site da Forbes.

Como as ferramentas de IA estão sendo cada vez mais integradas aos diversos setores da economia e é improvável “voltar atrás” totalmente em relação a essas tecnologias, entendemos essas restrições como parte de um processo, até que se possa adotar medidas de segurança e práticas recomendadas para o uso da inteligência artificial sem risco de vazamento de dados. Medidas como criptografar as informações sensíveis, implementar sistemas de controle de acesso rigorosos, investir na conscientização de funcionários sobre a importância da segurança de dados etc. já estão em discussão.

E isso é muito importante, basta olhar para a nossa história recente para saber que nem mesmo tecnologias destrutivas foram completamente suprimidas, é o caso das armas químicas e biológicas, proibidas pela comunidade internacional; ou ainda as bombas nucleares, que continuam sendo produzidas apesar dos tratados de não proliferação estabelecidos após a destruição de Hiroshima e Nagasaki, em 1945.

Ainda que pareça exagero comparar esse tipo de artefato, de impacto direto e imediato em termos de destruição, não podemos menosprezar os riscos associados ao desenvolvimento de IA, em questões éticas, de segurança cibernética e até desigualdades sociais.

Por isso, antes de imaginar que essas empresas estão exagerando ao restringir o uso de IA é importante mitigar os riscos por meio de regulamentações, políticas e diretrizes éticas, para garantir que os impactos negativos sejam minimizados.

Sim, é necessário um esforço consciente, pois sempre existe a possibilidade dessa tecnologia cair nas mãos erradas.

VEJA PUBLICAÇÃO ORIGINAL

Equipe especialista garante atendimento de excelência

conheça nossos profissionais

Atendemos toda e qualquer demanda de natureza jurídico empresarial

conheça nossas áreas de atuação

Cadastre-se para receber nossa newsletter

Acessar o conteúdo