Adoção crescente do ChatGPT nos locais de trabalho dos EUA levanta preocupações
Uma recente pesquisa da Reuters revelou uma tendência crescente nos EUA, onde um número significativo de trabalhadores está recorrendo ao ChatGPT para auxiliar em suas tarefas diárias, mesmo diante de preocupações que levaram gigantes da tecnologia como Microsoft e Google a implementar limitações em seu uso.
Em meio a discussões globais sobre a melhor forma de aproveitar as capacidades do ChatGPT, um programa de chatbot alimentado por IA generativa projetado para manter conversas e responder a uma ampla gama de comandos, empresas de segurança e corporações têm soado o alarme. Preocupações surgiram em relação a possíveis vazamentos de propriedade intelectual e informações estratégicas, complicando o processo de tomada de decisão para muitas organizações.
Os trabalhadores estão cada vez mais recorrendo ao ChatGPT para auxiliar na redação de e-mails, resumir documentos e conduzir pesquisas preliminares. Esses casos anedóticos acendem um alerta sobre as aplicações práticas da IA no trabalho cotidiano.
De acordo com a pesquisa da Reuters, cerca de 28% dos entrevistados em uma pesquisa online sobre inteligência artificial (IA) realizada entre 11 e 17 de julho indicaram que usam regularmente o ChatGPT em suas funções profissionais. Surpreendentemente, apenas 22% observaram que seus empregadores permitiam explicitamente o uso de ferramentas externas como o ChatGPT. Por outro lado, aproximadamente 10% dos entrevistados revelaram que seus superiores proibiam explicitamente o uso de ferramentas externas de IA, enquanto cerca de 25% não tinham certeza sobre a posição de sua empresa em relação à tecnologia.
A pesquisa, que envolveu 2.625 adultos nos Estados Unidos, teve um intervalo de credibilidade de cerca de 2 pontos percentuais.
O lançamento do ChatGPT em novembro o catapultou para se tornar o aplicativo que mais cresceu na história. No entanto, sua popularidade foi acompanhada por empolgação e preocupações. A OpenAI, desenvolvedora por trás do ChatGPT, encontrou-se em conflito com reguladores, particularmente na Europa, onde as autoridades de proteção à privacidade criticaram as práticas de coleta em massa de dados da empresa.
Uma preocupação significativa se refere à capacidade de revisores humanos de outras empresas lerem os chats gerados. Pesquisadores também descobriram que modelos de IA similares podem reproduzir dados absorvidos durante o treinamento, o que potencialmente representa um risco para informações proprietárias.
Ben King, vice-presidente de confiança do cliente na empresa de segurança corporativa Okta, destacou a falta de compreensão dos usuários sobre como os dados são utilizados ao empregar serviços de IA generativa. Essa lacuna de conhecimento é especialmente preocupante para as empresas, uma vez que os usuários muitas vezes não têm contratos formais com muitos serviços de IA oferecidos gratuitamente.
A OpenAI se absteve de comentar sobre as implicações do uso individual do ChatGPT por funcionários, mas mencionou uma postagem recente no blog da empresa que assegurava aos parceiros corporativos que seus dados não seriam usados para treinar ainda mais o chatbot sem permissão explícita.
No caso do Google Bard, são coletados dados como texto, localização e informações de uso. O Google permite que os usuários excluam atividades passadas e solicitem a remoção de conteúdo alimentado na IA. A empresa controladora do Google, Alphabet, não forneceu mais detalhes quando questionada para comentar.
A Microsoft não respondeu imediatamente a solicitações de comentários.
Para alguns, o ChatGPT encontra uso em “tarefas inofensivas”. Um funcionário do aplicativo de namoro Tinder nos EUA compartilhou que, apesar da posição não oficial da empresa, o ChatGPT é usado para tarefas como redação de e-mails e criação de convites engraçados para eventos da equipe. Essa utilização se estende também à pesquisa geral.
Embora algumas empresas, como o Tinder, possam adotar uma abordagem informal em relação ao ChatGPT, a Samsung Electronics adotou uma postura diferente. A empresa proibiu globalmente sua equipe de usar o ChatGPT e ferramentas de IA similares após descobrir que um funcionário havia carregado código sensível na plataforma.
A Samsung afirmou: “Estamos revisando medidas para criar um ambiente seguro para o uso de IA generativa que melhore a produtividade e eficiência dos funcionários”. A declaração, emitida em 3 de agosto, enfatizou as restrições temporárias ao uso de IA generativa por meio de dispositivos corporativos até que medidas de segurança abrangentes estejam em vigor.