Inteligência artificial está ‘invadindo’ reuniões online

Já são vários registros de casos em que a IA ingressou em reuniões online sem o consentimento dos participantes

Imagem: fizkes/Shutterstock

Compartilhe esta matéria

A inteligência artificial é treinada para realizar diversas funções. No entanto, ela nem sempre age como o esperado. Em ambientes corporativos e acadêmicos, por exemplo, a IA tem “invadido” reuniões online e chamadas de vídeo.

Isso se tornou comum em razão da popularização de recursos como Read AI, Otter e TacTiq. Estas ferramentas se integram a plataformas como Zoom e Teams e deveriam apenas oferecer recursos automatizados de registro e análise de reuniões.

Cérebro com os dizeres
IA está agindo de forma não esperada (Imagem: Anggalih Prasetya/Shutterstock)

IA pode acionar a gravação e compartilhar informações

O problema é que a IA está entrando em reuniões sem que todos os participantes estejam cientes ou tenham dado permissão explícita para isso. O principal ponto aqui não está na funcionalidade dos recursos, e sim no modo como essas ferramentas estão sendo integradas aos sistemas corporativos. Muitas vezes isso acontece sem clareza sobre quem autorizou ou quem está no controle do que é gravado.

A Universidade de Washington, nos Estados Unidos, chegou a banir, em março de 2024, o uso da transcritores em reuniões realizadas por meio do Zoom e do Teams. A decisão foi tomada após relatos de transcrições automáticas realizadas por IAs sem conhecimento prévio de todos os participantes.

Reunião online
Ferramenta está ingressando em reuniões sem o consentimento dos participantes (Imagem: fizkes/Shutterstock)

Segundo comunicado da instituição, as ferramentas foram considerada “eticamente arriscadas” por permitir que qualquer participante de uma chamada acione a gravação e compartilhe relatórios externos. A universidade também registrou casos em que a Read AI tentava entrar em reuniões mesmo após a exclusão de contas associadas ou em chamadas com usuários externos. As informações são da Exame.

Leia mais

Montagem de um rosto digital em azul
Ausência de políticas claras sobre a ferramenta potencializam o problema (Imagem: Yuichiro Chino/Shutterstock)

Configurações equivocadas podem ser raiz do problema

  • O relatório Data Breach Investigations Report 2024, da Verizon, apontou que 74% das violações analisadas no último ano envolveram o chamado “elemento humano”.
  • São, na maioria das vezes, erros de configuração.
  • O trabalho destaca que a maioria das violações começa com acessos autorizados tecnicamente, mas operando sem supervisão adequada.
  • Esse é justamente um cenário que ferramentas de IA não autorizadas podem potencializar.
  • A ausência de políticas claras sobre o uso destas ferramentas em videoconferências cria um vácuo regulatório.
  • Neste contexto, a tecnologia pode agir de forma intrusiva sem violar diretamente as regras das plataformas onde operam.


Alessandro Di Lorenzo

Colaboração para o Olhar Digital

Alessandro Di Lorenzo é formado em Jornalismo pela Universidade Federal do Rio Grande do Sul (UFRGS) e atua na área desde 2014. Trabalhou nas redações da BandNews FM em Porto Alegre e em São Paulo.


Postagem Relacionada

Copyright © 2024 Jornal Vertente

Jornal Vertente
Visão geral da privacidade

Este site utiliza cookies para que possamos fornecer a melhor experiência possível ao usuário. As informações dos cookies são armazenadas em seu navegador e desempenham funções como reconhecer você quando retorna ao nosso site e ajudar nossa equipe a entender quais seções do site você considera mais interessantes e úteis.