Comunicação Interna É Chave na Governança de IA

Uncategorized

Acelerando sua inserção nas rotinas corporativas, a Inteligência Artificial (IA) tem imposto às empresas o desafio de estabelecer uma governança de IA robusta e eficaz. Mesmo antes de uma discussão amadurecida sobre seus limites, a tecnologia já sugere soluções em diversas áreas de trabalho. No entanto, o uso diário da IA ainda é permeado por incertezas muitas vezes não verbalizadas pelos colaboradores. Questões como a validade do compartilhamento de dados sensíveis, a confiabilidade das respostas geradas e, crucialmente, o ponto onde começa a responsabilidade humana, permanecem em aberto. É precisamente nesse cenário que o tema da governança transcende as fronteiras da Tecnologia da Informação (TI), assumindo uma dimensão estratégica que exige da comunicação interna mais do que apenas a divulgação de regras. Ela precisa traduzir diretrizes complexas, atribuir significado às restrições e, fundamentalmente, fomentar uma cultura de segurança e uso consciente.

Não basta um mero manual para resolver essa complexa equação. Quando o foco é a governança de IA, o que está em jogo é a capacidade de a organização definir parâmetros claros para a utilização da tecnologia, delimitar responsabilidades e garantir que essas normativas sejam efetivamente aplicadas no dia a dia. Cenários corriqueiros, mas altamente reveladores, ilustram essa necessidade: um prompt alimentado com informações confidenciais, a reutilização de uma resposta da máquina sem a devida revisão humana, ou o emprego de ferramentas externas para agilizar tarefas. Em cada uma dessas situações, a falha não se restringe à esfera operacional. Na essência, reside um problema de orientação, de compreensão e, em muitos casos, de falha na comunicação.

Comunicação Interna É Chave na Governança de IA

Afinal, quem deveria ser o responsável por governar a interação entre as pessoas e a Inteligência Artificial? A resposta, tudo indica, não pode mais ser atribuída a uma única área. Isso porque a IA transcende o plano da infraestrutura, não sendo apenas um computador mais potente ou uma conexão de internet mais rápida. Ela abrange aspectos de linguagem, interpretação e comportamento. Ao solicitar que a máquina reescreva um e-mail ou condense uma reunião, um colaborador aciona uma dinâmica que envolve confiança, repertório, senso crítico e responsabilidade, o que demanda uma mediação tanto humana quanto narrativa.

Thaís Naldoni, Chief Communications Officer (CCO) da Invitro, uma das líderes globais em comunicação interna, observa que essa transformação de mentalidade já está em curso. Segundo ela, a governança da IA está migrando de uma abordagem focada em bloqueios de TI para um esforço colaborativo. A comunicação interna, agora, compartilha a mesa com o Recursos Humanos (RH) e o Jurídico para estabelecer quem pode acessar o quê e como assegurar a segurança dos dados. Essa reconfiguração evidencia que a IA já superou o domínio técnico, demandando respostas mais abrangentes para dilemas que a própria tecnologia, isoladamente, não pode solucionar.

Essa mudança é perceptível na prática diária. Conforme a tecnologia opera por meio da linguagem e interage diretamente com os colaboradores, os riscos associados ganham novas nuances. Eles se manifestam em ruídos de entendimento, na confiança excessiva depositada na ferramenta e na utilização automática da IA sem a devida consideração sobre a sensibilidade do conteúdo compartilhado. A analogia empregada por Thaís para distinguir os papéis de cada departamento é esclarecedora: se a TI gerencia a infraestrutura, os “bits”, a comunicação interna lida com as pessoas e a narrativa, o “humano”.

Isso significa que, mais do que reforçar uma noção genérica de colaboração, a perspectiva da CCO da Invitro aponta para uma atuação mais pragmática do que simplesmente conceber protocolos, por mais essenciais que sejam. Não é suficiente ter regras se elas não forem devidamente compreendidas. Conforme Thaís, sem contextualização, clareza e reforço constante, qualquer norma corre o risco de permanecer apenas no papel. É neste ponto que a comunicação interna adquire um papel preponderante na governança da IA. Sem sua participação, as políticas de segurança são meros “cadeados que as pessoas ignoram no cotidiano”, ela enfatiza.

Em última análise, o colaborador precisa entender não só o que foi proibido ou permitido, mas também a razão de tais limites e qual parcela de responsabilidade lhe compete, mesmo diante da automação. Como a porta-voz resume, a comunicação intercede para converter a complexidade em comportamento seguro.

A essa altura, não faz mais sentido conceber a governança da IA como uma ação isolada e distante da comunicação interna. Na visão de Cleide Cavalcante, gerente executiva de Marketing da Progic, o assunto é, acima de tudo, estrutural. Ela sugere que a organização ideal se concretiza por meio da formação de um comitê multidisciplinar, congregando áreas estratégicas como TI, RH, Compliance e Comunicação Interna. Tal formação dificilmente poderia ser diferente. Para gerir uma tecnologia que avança simultaneamente em diversas frentes, a perspectiva deve ser sistêmica. Conforme Cleide ressalta, além da camada de infraestrutura e da conformidade legal, existe outra, menos visível, mas igualmente crucial: a do impacto sobre as pessoas e o que, de fato, é compreendido por elas.

Quando se trata da governança da IA, o desafio consiste em edificar uma estrutura multifacetada, capaz de prever riscos, estabelecer protocolos e, ao mesmo tempo, promover a compreensão. A comunicação interna atua como o elo que costura todos esses elementos em uma narrativa coesa. Cleide caracteriza a área como um “tradutor estratégico”, devido à sua habilidade em desmistificar o jargão técnico e transformar normas e políticas complexas em mensagens claras e acessíveis. Essa formulação é valiosa por afastar uma visão limitada da comunicação com colaboradores, como se sua função fosse apenas “maquiar” decisões já tomadas. O que ela propõe é algo mais profundo: a comunicação tem o poder de moldar a cultura e o comportamento seguro em relação à IA.

Há outro aspecto importante nesta análise. Para Cleide, o comitê não se limita a organizar as áreas envolvidas ou a estabelecer regras, mas também a autorizar aplicações com base em critérios de risco e responsabilidade, além de definir diretrizes de mitigação. É nessa engrenagem decisória que se estabelece quem libera, quem orienta, quem avalia, quem comunica e quem monitora cada etapa, garantindo que não haja lacunas no processo.

Adicionalmente, essa estrutura se alinha com a ISO 42001, a primeira norma internacional dedicada a sistemas de gestão de IA, fundamentada em princípios como melhoria contínua, monitoramento de riscos e transparência nos processos organizacionais. Essa referência é significativa por indicar que o tema, finalmente, começa a transcender a esfera do improviso.

Embora seja simples identificar os riscos atrelados ao uso da IA nas empresas, o perigo nem sempre se manifesta de forma evidente no cotidiano. Um colaborador que, buscando agilizar uma entrega, recorre a uma conta pessoal e, por ventura, compartilha mais informações do que deveria, exemplifica esse cenário. É precisamente nesse uso, aparentemente inofensivo, que os riscos começam a surgir. Onde, então, reside o perigo? Menos nos incidentes isolados e mais na maneira como a IA é acionada, interpretada e naturalizada, o que sublinha a importância de posicionar a comunicação interna como uma tradutora da governança, e não apenas como um “apagador de incêndios”.

Não por acaso, Cleide destaca um dos pontos mais críticos desse panorama: a segurança de dados sensíveis, que envolve aspectos como confidencialidade e exposição indevida de informações. Segundo ela, o uso informal e não autorizado de ferramentas de IA, fora dos ambientes controlados das empresas, possui uma denominação específica: Shadow AI. Esse termo ajuda a caracterizar uma prática que não decorre, necessariamente, da intenção de violar regras, mas sim da confluência entre a facilidade de acesso, a urgência e a escassez de clareza sobre os limites.

No ambiente corporativo, essa prática é mais prevalente do que muitas organizações gostariam de admitir. O problema reside no fato de que, ao ativar plataformas externas sem a devida governança, abre-se uma vulnerabilidade real para o vazamento de dados proprietários, informações estratégicas e conteúdos de clientes.

Por essa razão, a executiva defende uma postura proativa da comunicação interna, com campanhas visuais que tornem os riscos mais palpáveis, treinamentos interativos que simulem situações reais e um reforço contínuo sobre a segurança de dados. “É fundamental reforçar a importância da Legislação Geral de Proteção de Dados (LGPD), explicando o porquê das restrições e como cada colaborador é um guardião da informação da empresa”, ressalta Cleide. Com essa abordagem, a empresa desloca a discussão da simples proibição para o campo da corresponsabilidade.

A resposta a esse cenário já demonstra sinais de mudança. Muitas empresas estão trocando a lógica do bloqueio puro por ambientes mais controlados, integrando IA proprietária, comunicação interna proativa e uma governança clara. Do ponto de vista de Thaís Naldoni, da Invitro, a tendência atual é disponibilizar ferramentas corporativas restritas, onde os dados não abastecem modelos públicos, acompanhadas de diretrizes claras sobre o que pode ou não ser compartilhado com a máquina. Essa transição, ela observa, é significativa por evidenciar uma compreensão mais realista da questão. Em vez de meramente proibir, as organizações começam a reconhecer a IA como parte integrante da rotina e, por isso, a governança deve buscar meios mais inteligentes de organizar essa presença.

Contudo, Thaís faz uma ressalva crucial: a regra escrita não é, por si só, garantia de segurança. No fundo, o que determina se o colaborador, de fato, vai compreender a distinção entre uma ferramenta autorizada e outra aberta é a maneira como essa informação lhe é transmitida. Como a CCO elucida, é preciso contextualizar o tema, conferir concretude ao risco e traduzir a proteção de dados em cenários que façam sentido para o indivíduo. Assim, a comunicação auxilia o público interno a discernir, com maior clareza, o risco de vazamento de um dado de cliente e como isso afeta a todos.

Em vez de insistir em um discurso focado na proibição, Thaís propõe uma pedagogia do uso responsável. Na governança da IA, a comunicação interna precisa fazer com que o “não pode”, muitas vezes acionado de forma automática, ceda lugar a uma orientação mais engajadora, que capacite o colaborador a empregar a ferramenta com responsabilidade. “Devemos criar uma cultura na qual o colaborador se sinta empoderado pela tecnologia, mas totalmente consciente de seu papel na proteção da empresa”, destaca a executiva. Em certas ocasiões, as políticas internas até delimitam o risco, mas nem sempre ensinam a agir de forma adequada diante dos desafios. E a prevenção também depende disso: de tornar o caminho seguro não apenas correto, mas compreensível e viável.

Não surpreende que o erro mais crítico não resida na máquina – como muitos ainda pressupõem. Ainda hoje, é comum atribuir à IA a responsabilidade quase integral por acertos e desvios, como se nós, na condição de líderes e liderados, estivéssemos alheios à equação.

Mas será que estamos, de fato, agindo da melhor maneira? O que, em realidade, é aceitável e o que excede esse limite? Nas palavras de Vitor Miranda, CEO da Invitro, o principal risco não se encontra mais na arquitetura das ferramentas, atualmente robustas e seguras, mas sim no comportamento humano. Essa afirmação é crucial porque reorganiza, de forma incisiva, a hierarquia do problema.

Comunicação Interna É Chave na Governança de IA - Imagem do artigo original

Imagem: melhorrh.com.br

Diante disso, o que a comunicação interna, no âmbito da governança da IA, pode oferecer ao colaborador quando ele nem sempre sabe o que não deve inserir no prompt e tem receio de perguntar se está utilizando a ferramenta corretamente?

Para Vitor, a solução passa por guias de uso, educação crítica e fluxos seguros para sanar dúvidas, estruturados de modo que o público interno compreenda o que não deve ser inserido no sistema e que a decisão final continua sendo humana. Segundo ele, “quando as pessoas entendem o funcionamento da tecnologia, elas se tornam a primeira linha de defesa da empresa. Prevenir o uso indevido é, acima de tudo, uma tarefa de transparência e educação contínua”, ele crava.

É nesse interstício entre a concepção de diretrizes e a integração da IA na rotina que a comunicação interna atua para abordar a governança e temas correlatos. Não meramente como uma equipe convocada para divulgar decisões já prontas, mas como uma instância capaz de converter orientação em prática, proporcionando contexto e entendimento aos indivíduos.

Essa, talvez, seja uma das transformações mais significativas trazidas pela disseminação da IA nas organizações. Por um longo tempo, comunicar uma norma quase sempre significava apresentá-la de forma vertical: o que é permitido, o que é vedado, o que foi liberado e o que foi proibido. No entanto, quando o assunto envolve uma tecnologia cercada por entusiasmo, receio, promessas e temores de substituição, essa lógica se mostra insuficiente. O colaborador não precisa apenas ser informado de que existe uma regra. Ele necessita compreender o seu sentido, os riscos que ela busca evitar, os benefícios que ela preserva e o tipo de responsabilidade que ainda lhe incumbe.

Nesse ponto, a explanação de Vitor Miranda ajuda a iluminar o caminho. Segundo ele, as políticas de uso da IA frequentemente vêm carregadas de uma linguagem jurídica densa que, em vez de orientar, afasta o público. E quando a informação falha, o colaborador preenche essa lacuna com interpretações parciais, inseguranças e suposições, um terreno fértil para que a novidade seja vista como uma ameaça. O problema, portanto, não reside na regra em si, mas na forma como ela é comunicada ao público interno: truncada e, muitas vezes, incompreensível. Para reverter isso, a comunicação interna atua como uma tradutora de confiança. “Nós deslocamos o foco do controle para o foco no benefício”, argumenta.

A expressão é contundente por deslocar a discussão para um plano mais humano. Traduzir confiança não implica em suavizar o risco nem em maquiá-lo com uma linguagem complacente. Significa demonstrar por que aquela diretriz existe, de que modo ela protege o trabalho do próprio colaborador e como a IA pode, de fato, aliviar tarefas repetitivas. Como Vitor enfatiza, “quando a empresa comunica com clareza e empatia, a tecnologia deixa de ser uma ameaça e passa a ser vista como um copiloto confiável”. E um copiloto auxilia, mas não assume o comando sozinho.

A tecnologia avança rapidamente, mas a governança só adquire consistência quando a comunicação interna contribui para sustentar uma cultura de uso responsável.

Traduzir, contudo, não se resume a substituir o “juridiquês” por uma linguagem mais acessível. Como sustenta Cleide Cavalcante, da Progic, o ponto decisivo reside em como as diretrizes, políticas e manuais de uso da IA são concebidos e colocados em circulação. Para ela, esses materiais não podem existir como um simples repositório de normas, desvinculado da realidade da empresa. Eles precisam ser úteis, dinâmicos e conectados ao cotidiano. “Deve-se evitar o tom proibitivo, focando no empoderamento do colaborador. Na disseminação, a abordagem deve ser multicanal e engajadora”, reflete. A diferença pode parecer sutil, mas não é. Uma coisa é entregar um documento para ser lido; outra, muito distinta, é construir algo que possa ser internalizado e acionado precisamente no momento em que a dúvida surge.

Essa reflexão ajuda a esclarecer melhor a razão pela qual a comunicação interna se insere no campo da governança da IA. Não apenas por sua capacidade de distribuir mensagens, mas por saber trabalhar a linguagem, o ritmo, o canal e a aderência. Cleide defende uma abordagem multicanal e engajadora, combinando gamificação, vídeos curtos, infográficos, quizzes, intranet, TV corporativa, aplicativos e workshops presenciais ou online. O propósito não é embelezar a norma, mas assegurar que ela resista à pressão da rotina. Quando a diretriz circula em formatos mais próximos da experiência real do colaborador, a conformidade se torna um hábito mais natural.

Há outro ponto relevante. Dentro dessas diretrizes, Cleide enfatiza a necessidade de revisão humana dos materiais, lembrando que nenhum conteúdo ou dado gerado por IA deve ser considerado final sem a validação crítica de um profissional.

O papel da comunicação interna se torna ainda mais evidente quando a empresa decide liberar ou restringir ferramentas. Nesses momentos, o que está em jogo não é apenas a existência da política, mas a confiança depositada na maneira como a organização conduz a mudança. Cleide chama a atenção para isso ao afirmar que a chave reside na transparência e na explicação clara do porquê de cada decisão. A observação é precisa porque, sem contexto, a simples liberação pode soar como um entusiasmo acrítico, ao mesmo tempo em que a restrição pode parecer arbitrária. “É essencial demonstrar que a empresa está agindo em prol do bem-estar coletivo e da sustentabilidade do negócio”, afirma.

Em outras palavras, governar também é evitar que a regra gere resistência por falta de explicação. Quando a empresa se comunica com clareza, ela diminui a probabilidade de que a inovação siga um caminho e a segurança outro. Como Cleide sugere, o objetivo é criar um ambiente onde ambas possam caminhar lado a lado.

Se, até o momento, foi possível compreender como a comunicação interna se integrou à engrenagem da governança da IA, a pesquisa que a Invitro prepara para os próximos meses promete ampliar essa percepção. Afinal, em que estágio o mercado realmente se encontra? Não por acaso, a empresa decidiu converter essa inquietação em estudo. Segundo Thaís Naldoni, a investigação setorial observará quatro dimensões principais: maturidade digital, modelos de governança, práticas de segurança e preparo das equipes.

A seleção desses eixos, por si só, já revela a complexidade do cenário. A essa altura, não basta questionar se a empresa utiliza IA ou não. É preciso entender com quais critérios essa adoção ocorre, quem estabelece seus limites, que nível de proteção acompanha esse uso e até que ponto o colaborador foi, de fato, orientado para lidar com a ferramenta. Em outras palavras, a pesquisa parte da premissa de que a governança da IA não pode ser avaliada apenas pelo número de plataformas liberadas ou pelas restrições vigentes, mas pelo grau de articulação entre tecnologia, cultura, segurança e comunicação interna.

A proposta contempla etapas quantitativas e qualitativas e dedicará atenção a setores onde o desafio de engajamento é mais elevado, como Indústria, Saúde e Varejo, embora não se restrinja a eles. A escolha também não é aleatória. Em ambientes mais dispersos, operacionais e heterogêneos, comunicar eficazmente tende a ser ainda mais crucial, pois a distância entre a regra e a prática geralmente se amplia. Ao final, a expectativa da Invitro é fornecer um guia mais prático sobre como as empresas estão conciliando a eficiência da automação com aquilo que, nas palavras da própria Thaís, permanece inegociável: a necessidade de manter uma comunicação humana e estratégica.

Confira também: Imoveis em Rio das Ostras

Em síntese, a governança da IA nas empresas é um tema multifacetado que exige uma abordagem estratégica e colaborativa, com a comunicação interna desempenhando um papel fundamental. Através da tradução de diretrizes, da promoção de uma cultura de uso responsável e da conscientização sobre a segurança de dados, as organizações podem navegar pelos desafios da inteligência artificial de forma mais eficaz. Continue explorando as tendências do mercado corporativo e os desafios empresariais em nossa editoria de Economia.

Crédito da imagem: Portal Melhor RH

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *