Este mundo de alto potencial de monetização, aliado à rápida viralização de conteúdos, fez com que as big techs corressem para desenvolver ferramentas de otimização. A inteligência artificial (IA) tem ganhado cada vez mais espaço no cotidiano dos usuários da tecnologia. E a tendência é que a sua presença aumente, já que gigantes como Google, Meta, Microsoft e Snapchat estão investindo grandes recursos no desenvolvimento de funções e ferramentas que incorporam a IA em seus produtos. E a bola da vez é o ChatGPT.

O site (https://chat.openai.com/chat) foi lançado em 2022 e criado pelo laboratório norte-americano OpenAI. Foi baseado no algoritmo em inteligência artificial Chat GPT-3.5 (tecnologia Generative Pre-trained Transformer) e ganhou espaço na mídia e no mundo por sua praticidade e verossimilhança humanizada. O robô levou apenas alguns dias para viralizar e em poucas semanas, foi testado por milhões de usuários ao redor do globo.

“O formato de diálogo permite que o ChatGPT responda a perguntas subsequentes, admita seus erros, conteste premissas incorretas e rejeite solicitações inapropriadas”, explica o site da startup OpenAI. A empresa foi criada a partir de grupo de pesquisa em inteligência artificial e tem como fundadores e patrocinadores nomes como Elon Musk, Sam Altman, Ilya Sutskever, Reid Hoffman (cofundador do LinkedIn) e Peter Thiel (cofundador do PayPal).

               Apesar disso, empresas de mídia alertam para os riscos de seu uso no futuro na educação e no ecossistema trabalhista, bem como o perigo de crimes cibernéticos, plágio, entre outros. O sistema ainda é limitado em se tratando da compreensão de todas as nuances da linguagem humana, o que pode refletir em algumas inconsistências ao responder às perguntas dos usuários, bem como em consequências importantes no mundo laboral, humanista e econômico.

COMO FUNCIONA

O ChatGPT é basicamente uma plataforma de conversas entre o usuário e o sistema formado pelo algoritmo (robô). Você pode fazer perguntas simples, permitindo diálogos em diversos idiomas sobre praticamente qualquer assunto, gerar conteúdo ou dar comandos de quaisquer natureza, que o próprio robô responderá de forma quase que humanizada e aparentemente natural. Além disso, a plataforma também pode produzir vídeos e imagens em sua versão mais atualizada.

BENEFÍCIOS

Do ponto de vista corporativo, é possível ver muita utilidade do ChatGPT. Aplicações comerciais para atendimento e suporte ao cliente podem dar um grande salto. O usuário que está em busca de respostas rápidas e precisas, certamente estará bem servido com a utilização da ferramenta. Além do chat estar disponível 24 horas por dia, durante os 7 dias da semana, ele é capaz de processar a pergunta e respondê-la em um tempo exponencialmente menor, se comparado ao tempo de resposta de um ser humano.

Com relação às possibilidades, a grande vantagem da tecnologia está no aumento de produtividade que ela oferece. O chat pode ser visto como uma ferramenta capaz de reduzir os custos de uma empresa, a partir da automatização de tarefas. O serviço oferecido pelo sistema poderia substituir o trabalho de vários colaboradores, otimizando tempo e mão de obra envolvida na demanda.

Um exemplo de fácil monetização é o recurso lançado pela desenvolvedora do ChatGPT. Trata-se de uma ferramenta de transcrição, que usa inteligência artificial para transcrever e traduzir áudios, cobrando US$ 0,006 por minuto de áudio.

Segundo os especialistas, mecanismos com a inteligência artificial podem servir como um complemento aos mecanismos de busca, um fator que também faz com que empresas busquem a tecnologia.

RISCOS

Indagado, o próprio robô responde sobre os riscos quanto a seu uso:

“Como modelo de linguagem, o ChatGPT não apresenta riscos diretos aos usuários. No entanto, é importante lembrar que ele é um programa de inteligência artificial treinado em uma enorme quantidade de dados disponíveis na internet e, como tal, pode reproduzir ou transmitir preconceitos, desinformação ou informações imprecisas.

Além disso, é importante ter em mente que o ChatGPT é apenas um modelo de linguagem e não tem consciência ou emoções. Isso significa que, embora possa fornecer respostas úteis, ele não tem a capacidade de entender plenamente as necessidades e emoções humanas, o que pode levar a mal-entendidos ou respostas inadequadas.

Outro risco potencial é o uso indevido do ChatGPT para disseminar informações falsas ou mal-intencionadas. Embora o ChatGPT seja programado para evitar respostas prejudiciais ou ofensivas, ainda pode ser explorado por indivíduos mal-intencionados para espalhar desinformação.

Portanto, é importante lembrar que o ChatGPT deve ser usado com cautela e não deve ser visto como uma fonte infalível de informações. É sempre recomendável verificar as informações fornecidas pelo ChatGPT e considerar a fonte antes de tomar qualquer decisão ou ação com base nas informações recebidas”.

No entanto, segundo especialistas, tal qual outros programas que se baseiam na chamada aprendizagem profunda (deep learning, em inglês), o ChatGPT não consegue justificar por que selecionou determinadas palavras que compõem suas respostas, fazendo com que a confiabilidade dessa própria declaração seja colocada em xeque.

Por um lado, tamanho grau de sofisticação é fascinante. Por outro, deixa muitos observadores inquietos pelo fato de que talvez essas tecnologias estejam sendo utilizadas para enganar as pessoas, divulgando informações falsas ou criando fraudes cada vez mais críveis.

A fim de evitar possíveis abusos, as empresas de tecnologia estão colocando proteções em vigor. Em sua página inicial, a OpenAI adverte que o chatbot pode gerar “informações incorretas” ou “produzir conteúdo ofensivo ou tendencioso”. Além disso, se isenta: “A OpenAI tornou extremamente difícil fazer com que a ferramenta expresse opiniões”.

NECESSIDADE DE REGULAMENTAÇÃO DA FERRAMENTA

O chat levanta preocupações com relação aos direitos autorais.[1] A ferramenta se utiliza de diversos livros, artigos acadêmicos e publicações disponíveis na web sem ao menos citá-los quando da elaboração da resposta. A utilização de parte da obra de certo autor demandaria, além de autorização expressa, a devida referenciação da obra utilizada, em observância ao direito autoral conferido constitucionalmente.

A União Europeia, em abril de 2021, já sugeriu a implementação de regulamentação das tecnologias de inteligência artificial, denominado AI Act. Os europeus buscam um consenso em torno da regulamentação para tentar aprovar o texto ainda no ano de 2023.

O Brasil também já se movimenta no mesmo sentido. Em dezembro de 2022, uma comissão presidida pelo Ministro do STJ, Ricardo Villas Bôas Cueva, entregou ao Presidente do Senado um relatório capaz de servir como base para diversos projetos de lei em trâmite no Congresso Nacional em relação ao tema.

A necessidade de regulamentação vai além, pois é preciso limitar crimes cibernéticos possíveis, como racismo, xenofobia, agressões verbais, ameaças e outros mais, que possam ser proporcionados direta ou indiretamente pelo uso da plataforma.

SUCATEAMENTO DO PENSAMENTO CRÍTICO E ANALÍTICO

Como não é um ser humano, mas sim um sistema robótico criado por humanos, a capacidade de análise e crítica é ilusória. A ferramenta se abastece de conteúdo criado e buscado em um enorme banco de dados, que fornece informações cruzadas ao usuário para melhor otimização das respostas. Portanto, não há capacidade analítica e cognitiva na geração de respostas. Em tempos de crise do pensamento crítico e analítico racional, em que todos querem agilidade, produtividade, qualidade e aprendizado em tempo adequado, respeitando a melhor forma de educação para todos, a ferramenta pode se tornar um inimigo neste quesito.

Essa é uma das razões pelas quais autoridades do setor de educação de Nova Iorque começaram a bloquear o site desse controverso robô, que pode desenvolver parágrafos textuais semelhantes aos redigidos por humanos. Os alunos podem usar essa tecnologia para colar nas provas ou para que ele faça seus deveres de casa. O site norte-americano The Atlantic[2] já publicou um artigo prevendo o fim da redação escolar devido à habilidade do ChatGPT em escrever textos. Muitos podem deixar de investir tempo de estudo ao usar o robô. Olhando por esse lado, essa tecnologia tende a deixar as pessoas mais preguiçosas e com baixo potencial de raciocínio.

A decisão de restringir o acesso ao ChatGPT em dispositivos e redes internas de escolas nova-iorquinas poderá ser replicada em outros locais do mundo, numa tentativa de evitar que alunos recorram à ferramenta para a redação de textos. Os criadores da ferramenta, inclusive, afirmam que trabalham para combater e detectar o uso indevido da ferramenta.

A preocupação surge justamente da eficiência apresentada pela tecnologia. O conteúdo elaborado pelo chat tende a induzir as pessoas ao comodismo de simplesmente utilizar a ferramenta para suprir indagações, sejam acadêmicas ou profissionais. A comodidade gera conformismo e pode reduzir o senso crítico das pessoas, raciocínio e disposição para checar e produzir informações com veracidade.

               A Apple Inc. também bloqueou a atualização do ChatGPT para crianças, pela falta de filtragem de conteúdo do robô[3].

DESINFORMAÇÃO, FAKE NEWS E PRECONCEITO

Como ele pode criar textos como se fosse um humano, é possível que seja usado para elaborar as mais criativas e verossímeis notícias falsas. Ou até mesmo se passar por organizações ou indivíduos reais na criação dessas informações.

Todos já sabem o que as fake news podem fazer com nações inteiras. Levando isso em conta, considera-se que a desinformação pode ser automatizada e distribuída em diversos ambientes, como no sistema educacional, em notícias jornalísticas, em plataformas de comunicação digital, sem nenhuma checagem de referências ou fontes, perdendo-se a confiabilidade das informações.

Como o ChatGPT é treinado com informações de diversos tipos, ele pode aprender a replicar informações com preconceitos e discriminações. Ou seja, é possível que ele use conteúdo discriminatório em aplicações, como assistentes virtuais, sistemas automatizados ou na hora de tomar decisões.

               Nessa toada, por exemplo, ferramentas do Google e da Microsoft produziram efeitos factuais parecidos, como, por exemplo o do chatbot Bing, quando usuários reclamaram de respostas problemáticas, incluindo comentários de confronto e fantasias sombrias.

SEGURANÇA E PRIVACIDADE

Esta é uma ferramenta abastecida por modelos que aprende com a Inteligência Artificial (IA). Portanto, os dados usados para treinar podem ser acessados por pessoas de má-fé. Ou até mesmo ser usado para representar um indivíduo ou uma instituição, o que coloca a segurança e privacidade de muitos em risco[4].

Deve-se tomar cuidado, também, com vazamento de dados sensíveis como bancários, pessoais e empresariais, uma vez que tudo pode ser divulgado no diálogo do chat e, por consequência, alimentar o banco de dados da plataforma.

Em março de 2022 o sistema teve seus dados violados por hackers, que atingiram principalmente usuários pagantes[5]. Levando isso em conta, cabe à dona da ferramenta, trabalhar arduamente para solucionar esses problemas daqui para frente.

INTELIGÊNCIA ARTIFICIAL: O ALERTA DE ESPECIALISTAS SOBRE O “RISCO PARA A HUMANIDADE”

Um grupo de especialistas em inteligência artificial e executivos da indústria de tecnologia pediu uma pausa de seis meses no treinamento de poderosos sistemas de inteligência artificial, argumentando que eles representam uma potencial ameaça à humanidade[6].

Em carta aberta, eles alegam que os laboratórios que trabalham com essa tecnologia estão em “uma corrida fora de controle para desenvolver e implementar mentes digitais cada vez mais poderosas que ninguém, nem mesmo seus criadores, pode entender, prever ou controlar com segurança. (…)Essa pausa deve ser pública e verificável, e incluir todos os principais atores. Se essa pausa não puder ser implementada rapidamente, os governos devem intervir e instituir uma suspensão”, acrescenta o texto.

A carta assinada pelos especialistas faz a seguinte pergunta: “Devemos criar mentes não humanas que possam eventualmente nos superar, ser mais inteligentes, nos tornar obsoletos e nos substituir “? Em um post recente citado na carta, a OpenAI, empresa por trás do mais recente ChatGPT-4, também alertou sobre os potenciais riscos da tecnologia. “A superinteligência desalinhada pode causar sérios danos ao mundo; um regime autocrático com superinteligência decisiva também pode fazer isso”, escreveu a empresa em um blog. A OpenAI não comentou publicamente a carta.[7]

POSSÍVEL PRECARIZAÇÃO, DIMINUIÇÃO DA FORÇA DE TRABALHO OU EXTINÇÃO DE PROFISSÕES

Por ser um robô, inúmeras profissões podem, a priori, ser precarizadas e até substituídas pelo sistema, frente à sua praticidade. Isso pode levar a muitos problemas no mercado de trabalho, numa espécie de “Revolução Industrial” criada pela evolução da inteligência artificial em todos os aspectos de sua atuação e que pode modificar todo o ecossistema laboral da modernidade, por substituir empregos por automação.

No primeiro dia após seu lançamento, o ChatGPT-4 surpreendeu nos primeiros testes e demonstrações da empresa, com sua capacidade de redigir ações judiciais, passar em exames padronizados e construir um site funcional a partir de um esboço feito à mão.

O poderoso ChatGPT-4, versão mais recente da plataforma, promete acabar com as iterações anteriores, mudando potencialmente a forma como usamos a internet para trabalhar, jogar e criar. Mas também pode aumentar as questões desafiadoras sobre como as ferramentas de inteligência artificial podem acabar com profissões, permitir que os alunos trapaceiem e mudar nosso relacionamento com a tecnologia.

De acordo com um relatório recente do banco de investimentos Goldman Sachs, a inteligência artificial poderia substituir o equivalente a 300 milhões de empregos em tempo integral. Esta tecnologia pode substituir um quarto das tarefas laborais nos EUA e na Europa, acrescenta, mas também pode gerar novos postos de trabalho que não existiam até agora e acarretar um aumento da produtividade.

Uma pesquisa da Resume Builder apontou que 49% de 1.000 empresas consultadas já usam inteligência artificial em atividades cotidianas. Sendo que cerca de 48% afirmam que isso já causou algum tipo de mudança no quadro de colaboradores – demissões ou contratações[8].

Especialistas dizem que, especialmente para produtores independentes e pequenos negócios, há grande impacto, pois atualmente é possível utilizar inteligência artificial para geração de imagens e textos. Áreas como Direito, Jornalismo e Marketing já estão sendo ameaçadas pela plataforma, especialmente para as funções que envolvem geração de conteúdo e gestão de mídias, o que prejudica diretamente os empregos e os trabalhadores.

Para os especialistas, é preciso encontrar um equilíbrio entre o trabalho humano e a inteligência artificial. Ou seja, oferecer aos trabalhadores uma educação para utilizar as ferramentas com o objetivo de diminuir o tempo em tarefas repetitivas. Tudo isso somado a uma capacitação cada vez maior dos trabalhadores.

Como, então, encontrar o equilíbrio com a tecnologia para o relacionamento com comunidades?

RELACIONAMENTO COM COMUNIDADES E A INTELIGÊNCIA ARTIFICIAL

A FOCO Inteligência de Relacionamento é uma consultoria especializada na comunicação e na gestão do relacionamento entre marcas e comunidades, com atuação em todo o território nacional. A FOCO contribui com os negócios por meio da realização de pesquisas avaliativas, diagnósticos e cadastros socioeconômicos, que servem de base para a proposição de estratégias de comunicação, mobilização e relacionamento com comunidades.

Nesse contexto, porém, para além do uso da tecnologia, é de suma importância a humanização do processo. A conversa e a escuta humanizadas devem ser a prioridade, uma vez que o diálogo entre empresas e comunidades será a ponte para uma comunicação efetiva entre as partes.

“Acreditamos que mãos humanas é que farão a diferença em nosso trabalho. Se a força de uma comunidade está em sua capacidade de mobilização e articulação, somente a escuta cuidadosa e a comunicação olho no olho serão basilares na construção de uma relação consistente entre marca e comunidades”, afirma o diretor e fundador da FOCO, Fabrício Soares.

A FOCO atua no relacionamento com diversos públicos, como vizinhança de empreendimentos, Poder Público, entidades de classe e fomento, associações profissionais e comunitárias, moradores de zonas rurais e sedes urbanas, comunidades tradicionais e funcionários. Assim, sempre com o olhar no que a tecnologia pode oferecer, a metodologia de atuação é estabelecida compreendendo a fundo os cenários e a origem dos conflitos e tensões, passando “ao outro lado do balcão” para saber como o outro lado pensa e se comunica, articula e age. São três pilares de atuação:

  • Estudos, diagnósticos e análises de cenários;
  • Planejamento e estratégia de comunicação e relacionamento;
  • Gestão estratégica de relacionamento, conteúdos e canais.

É aí que entra a importância das pessoas no processo de análise, criação e produção das informações. É na conversa entre as pessoas, se colocando no lugar do outro de forma empática e cuidadosa, que se consegue encontrar a chave para a tomada de decisões que se transformam em resultados para os negócios.

É isso que a FOCO acredita ser o melhor caminho para enfrentar os desafios: sempre de olho na tecnologia, adotar a escuta, pesquisa, inteligência, estratégia e ação como processo para criar soluções em comunicação e relacionamento com comunidades.

Dessa forma, é possível fazer uma comunicação direcionada ao público-alvo, integrar as estratégias de comunicação e relacionamento, analisar indicadores e corrigiras rotas.

Nossa experiência nos mostra que assim é possível alcançar resultados consistentes, entregar as melhores soluções, fortalecer a visibilidade das marcas, evoluir com uma agenda positiva e proativa de comunicação e reforçar o alcance e o engajamento com foco no território de atuação dos negócios.

               O que falta à inteligência artificial, como dito anteriormente, são duas qualidades que só as pessoas possuem: a empatia e a sensibilidade para entender o outro.

A FOCO acredita que a tecnologia deve ser usada, sim, na coleta, consolidação, organização e compartilhamento de dados. As ferramentas tecnológicas trazem inúmeros benefícios aos negócios e até aos usuários diretos, apoiam na análise das informações, transformando-as em conhecimento para a tomada de decisões. Porém, a decisão sobre o que se deve fazer a partir dessa análise deve ser guardada ao pensamento humano.  

Para uma eficaz gestão de relacionamento com comunidades, de forma consistente, coerente e convergente, se faz necessária a escuta atenciosa e empática, de forma a entender mais profundamente a realidade do micro e macroambiente, que estão longe de serem constituídos por lógicas de 0 e 1 das Ciências Exatas.

A Gestão de Relacionamento com Comunidades deve ser consistente, convergente e coerente, feita a partir do entendimento real das necessidades e vocações das pessoas. A partir dessa análise é possível fazer o manejo inteligente dos recursos financeiros e humanos disponíveis, de forma a potencializar a presença dos empreendimentos em seus territórios de atuação, garantindo, assim, resultados mais efetivos em comunicação e relacionamento.

Autores:
Fernanda Minucci
Fabrício Soares


[1] https://tecmasters.com.br/chatgpt-riscos-necessidade-regulamentacao/

[2] https://www.theatlantic.com/technology/archive/2022/12/chatgpt-ai-writing-college-student-essays/672371/

[3] https://www.cnnbrasil.com.br/economia/apple-bloqueia-atualizacao-de-aplicativo-que-usa-chatgpt/

[4] https://nerdizmo.uai.com.br/5-perigos-que-o-chatgpt-representa-para-a-sociedade/

[5]https://www.uol.com.br/tilt/noticias/redacao/2023/03/31/italia-decide-banir-robo-de-conversas-chatgpt-do-pais-entenda.htm

[6]https://www.uol.com.br/tilt/noticias/afp/2023/03/29/elon-musk-e-centenas-de-especialistas-pedem-pausa-em-desenvolvimento-de-ia.htm

[7] https://www.bbc.com/portuguese/articles/c89yywnx5lyo

[8] Fonte: https://www.cnnbrasil.com.br/economia/meta-chat-gpt-google-snapchat-a-guerra-das-plataformas-pela-inteligencia-artificial/