07 de Junho | 2023 - Por Nelson Wilians

Em mãos erradas, a IA pode ser uma ‘arma química’

 
Voltar
Voltar

Há poucos dias, alguns meios de comunicação trouxeram a informação de que bancos brasileiros estão restringindo o uso do ChatGPT por seus funcionários. A plataforma, como já admitiu a sua desenvolvedora, a OpenAI, é aprimorada com informações inseridas pelos próprios usuários. Além de ficarem guardados nos servidores da empresa, esses dados sensíveis podem ser expostos em caso de hackeamento da ferramenta ou virem à tona por uma falha no sistema.

Essa é uma tendência que começou nos Estados Unidos, quando empresas de tecnologia e grandes bancos americanos impuseram restrições ao uso da plataforma, devido à preocupação com o vazamento de dados confidenciais. Entre essas empresas estão a Apple, Amazon, JPMorgan Chase e Citigroup.

Ainda que não seja o primeiro chatbot lançado ao público, o GPT está sendo considerado muito mais avançado do que seus antecessores, capaz de resolver problemas complicados, escrever ensaios e resumir registros regulatórios, embora ainda cometa muitos erros, de acordo com relatos de usuários.

Algumas escolas americanas também estão proibindo o uso da plataforma por temer que seus alunos usem o chatbot para colar em testes e ensaios, conforme noticiou o site da Forbes.

Como as ferramentas de IA estão sendo cada vez mais integradas aos diversos setores da economia e é improvável “voltar atrás” totalmente em relação a essas tecnologias, entendemos essas restrições como parte de um processo, até que se possa adotar medidas de segurança e práticas recomendadas para o uso da inteligência artificial sem risco de vazamento de dados. Medidas como criptografar as informações sensíveis, implementar sistemas de controle de acesso rigorosos, investir na conscientização de funcionários sobre a importância da segurança de dados etc. já estão em discussão.

E isso é muito importante, basta olhar para a nossa história recente para saber que nem mesmo tecnologias destrutivas foram completamente suprimidas, é o caso das armas químicas e biológicas, proibidas pela comunidade internacional; ou ainda as bombas nucleares, que continuam sendo produzidas apesar dos tratados de não proliferação estabelecidos após a destruição de Hiroshima e Nagasaki, em 1945.

Ainda que pareça exagero comparar esse tipo de artefato, de impacto direto e imediato em termos de destruição, não podemos menosprezar os riscos associados ao desenvolvimento de IA, em questões éticas, de segurança cibernética e até desigualdades sociais.

Por isso, antes de imaginar que essas empresas estão exagerando ao restringir o uso de IA é importante mitigar os riscos por meio de regulamentações, políticas e diretrizes éticas, para garantir que os impactos negativos sejam minimizados.

Sim, é necessário um esforço consciente, pois sempre existe a possibilidade dessa tecnologia cair nas mãos erradas.

Por

  1. Nelson Wilians Fratoni Rodrigues
  2. CEO e Sócio-Fundador

  3. São Paulo/SP

Para

  1. LinkedIn
  • Assessoria de imprensa:
  • imprensa@nwadv.com.br
Saiba mais sobre nós
Voltar

Inovação impulsionada por competências em constante evolução

Pensamento Inovador