🧠 Tempo para escrever: 16 horas
📖 Tempo de leitura: 15 minutos
✍️ Na última ediçãoNetwork effects, principalidade e a corrida bilionária da IA

Você vai ler

O paradoxo da IA: muito uso, pouco conhecimento

Muita gente usa IA todos os dias. O ChatGPT tem quase 800 milhões de usuários ativos por semana, praticamente 10% da população mundial.

Por outro lado, estudo How People Use ChatGPT da OpenAI mostra que essa utilização ainda é muito trivial. 78% de todas as mensagens se encaixam em 3 categorias:

  • practical guidance (como fazer, aprender)

  • writing (editar, traduzir, revisar)

  • seeking information (informação específica, produtos, receitas)

Considerando apenas as interações com viés profissional, escrita (writting) é o caso de uso dominante com cerca de 42%, sendo 2/3 dessas mensagens solicitações para modificar o texto do usuário.

Aqui estão exemplos reais de uso utilizados no estudo:

- "Help me improve my essay, including improving flow and correcting grammar errors."
- "Please shorten this paragraph."
- "Can you proofread my article for grammatical mistakes?"
- "Here’s my draft speech; can you suggest enhancements?"
- "Stp aide moi `a corriger ma dissertation."

Ou seja, praticamente 30% do uso profissional do ChatGPT é resumido a revisão.

WAU nos planos Free/Plus/Pro

Uso relacionado ao trabalho por categoria

Em paralelo, o relatório Superagency in the Workplace da McKinsey & Company revela o outro lado: 3x mais funcionários usam IA intensamente do que os líderes supõem; 92% das empresas planejam investir mais em IA nos próximos 3 anos, mas apenas 1% se consideram maduras.

Encontrei 6 papers capazes de catapultar os resultados gerados com IA e te separar definitivamente do grupo que faz “rascunhos mais rápido”.

  1. How People Use ChatGPT: Este estudo analisa dados reais de uso do ChatGPT para entender quem usa a ferramenta e para quais fins, revelando que embora o uso não profissional domine em volume, a IA vem ganhando espaço no trabalho principalmente como assistente de escrita e de pesquisa.

  2. Read Before You Think: mitigating LLM comprehension failures with step-by-step reading: Fala sobre como fazer um modelo de linguagem compreender antes de responder, aumentar em 46% a qualidade das respostas.

  3. Does Prompt Formatting Have Any Impact on LLM Performance? A Microsoft testou diversos modelos de input e encontrou o formato de prompt que muda radicalmente a qualidade da resposta, melhorando 40% a performance da IA.

  4. Why Language Models Hallucinate. A própria OpenAI escreveu esse paper para explicar porque os LLMs inventam respostas para prompts e como lidar com isso.

  5. Superagency in the workplace: empowering people to unlock AI's full potential: O potencial da IA nos resultados organizacionais é imenso, mas apenas 1% das empresas se consideram maduras, onde está o gargalo?

  6. Agent-in-the-loop: a data flywheel: Esse paper do Airbnb demonstra que, ao invés de tratar o modelo como uma solução estática treinada offline, é melhor incluir humanos no ciclo de interação de um sistema de IA (como um modelo de suporte) gera resultados melhores.

Este texto combina esses artigos para você otimizar o uso de GenAI no seu trabalho e dia a dia, com orientações práticas, dados e gráficos.

Melhore a qualidade das respostas em 46% com apenas um prompt

O artigo Read Before You Think mostra que muitos erros da IA não são provenientes de um "raciocínio" fraco, mas da compreensão errado do enunciado.

O gráfico abaixo demonstra que problemas de entendimento representam a maior parte do erros, reforçando que é compreensão, não cálculo, o principal problemas das LLMs hoje em dia.

Taxa de erros por motivo

A partir disso os pesquisadores propõe o prompt em formato SSR - step by step reading, que obriga o modelo a ler os detalhes do prompt, mapear seus objetivos, antes de responder.

O artigo encontrou dois elementos nas LLMs que são endereçados pelo SSR:

  1. Dificuldade em correlacionar dependências. O estudo mostrou que adicionar apenas uma dependência ao longo do texto reduz a acurácia do modelo em aproximadamente 10%.

    Isso é especialmente crítico porque, no ambiente corporativo, é comum utilizar LLMs para construir uma tese ou validar uma ideia, adicionando elementos e dependências ao longo de várias interações. Dependências essas que são mal interpretadas pelo modelo, gerando respostas que soam boas, mas que ignoram seu contexto

  2. Capacidade de mudar o foco. Quando você refaz uma pergunta, o modelo ajusta a atenção para tokens relevantes, como substantivos e números, e reduz a importância de outros sinais, como pontuações.

    Por isso, uma técnica do SSR é fazer o modelo repetir explicitamente as etapas do raciocínio.

Com isso o estudo propõe três níveis de prompt, chegando a 46% menos erros por falta de compreensão semântica.

Nível 1 - SSR: obriga o modelo a adiar a escrita e força a leitura do prompt.

Leia o prompt passo a passo antes de responder

Nível 2 - SSR+: faz a IA citar os passos que deve seguir e ancora a resposta nos itens descritos no prompt.

Leia o prompt passo a passo e cite a etapa correspondente enquanto responde

Nível 3 - SSR++: quando o prompt possui correspondências (por exemplo, um asterisco ou observação que explica algo citado anteriormente), é importante pedir para o modelo se re-contextualizar antes de responder.

Leia o prompt passo a passo, cite a etapa correspondente enquanto responde, releia as restrições e avisos finais do prompt e ajuste as partes que tenham sido afetadas

Redução de erros de 54 para 29 utilizando SSR

Abaixo deixo dois modelos de prompt que criei a partir do paper utilizado a partir do paper.

O primeiro endereça um pedido de produção de peças para a Black Friday, o segundo foi um teste para a criação de um GPT capaz de validar copies e roteiros a partir da descrição das ofertas de uma campanha.

Leia o briefing passo a passo antes de escrever.

1) Extraia e liste: objetivo(s) de negócio, público(s), proposta de valor, oferta/benefícios/provas/garantias, canais, restrições (marca/jurídico), métrica de sucesso.

2) Aponte 3–5 lacunas/ambiguidades e faça 3 perguntas de clarificação.

3) Gere 3 caminhos estratégicos. Para cada caminho, diga explicitamente quais itens do passo (1) ele cobre e qual impacto espera (ex.: CTR/CVR/AOV).

4) Produza as peças pedidas [e-mail/LP/ads] e, para cada peça, referencie os itens do passo (1) que ela cobre. Inclua uma tabela argumentos → benefícios → provas → CTA.

5) Releia as restrições/tópicos finais do briefing e ajuste qualquer parte que tenha sido afetada (dependências para trás). Se faltar dado crítico, responda “não sei” e liste o que precisa.
Leia o briefing e destaque informações que possam alterar o sentido de claims anteriores (ex.: prazo, elegibilidade, termos). Antes da versão final:

- Liste quais trechos precisam ser reescritos por causa de “asteriscos”.
- Mostre a versão anterior e a versão corrigida.
- Explique, em 1 frase, qual regra legal/da marca provocou a mudança.

Vale reforçar que SSR nem sempre é a melhor opção. Ele tende a ser irrelevante para tarefas muito curtas ou em um prompt/briefing sem dados.

Ao mesmo tempo, reforço a importância das etapas do SSR. Em meu primeiro prompt eu peço que ele aponte as lacunas, por exemplo. Eu considero essa etapa fundamental para que o modelo informe quais informações são insuficientes, caos contrário ele irá inventá-las.

Melhore em até 40% a performance da IA com o formato de prompt mais adequado

Dois times recebem o mesmo briefing de campanha.

Uma envia um pedido em plain text no chat. A outra usa um brief em markdown (seções claras) e exige saída em JSON para tabela de argumentos → benefícios → provas → CTA.

Resultado: peças mais coerentes, menos retrabalho e mais performance.

Não é sorte: o paper Does Prompt Formatting Have Any Impact on LLM Performance? mostra que o formato muda muito a qualidade. No modelo GPT-3.5 as diferenças chegaram em 40%, com os modelos mais robustos compreendendo melhor qualquer formato, mas ainda apresentando diferenças.

O estudo testou os 4 formatos mais comuns, sempre com os mesmos inputs: persona → instruções → exemplos → instruções de output → pergunta.

Plain Text: formato corrido de texto, com pouca estrutura. Os blocos aparecem em sequência, normalmente sob um bloco “System:”, seguido de “User:” com a pergunta/entrada. Sem títulos ou marcação especial, só quebras de linha.

Markdown e YAML: usam títulos e listas para cada parte do template. Isso dá hierarquia explícita e separa nitidamente cada bloco, com YAML sendo mais parametrizado

JSON: cada parte do prompt vira um campo JSON e a pergunta do usuário é uma tarefa.

Aqui dois exemplos do mesmo prompt de acordo com o tipo de input:

Mas na prática, o que devemos fazer?

Infelizmente não existe um modelo de input universal, com o tipo de tarefa tendo grande influência no resultado, com alguns testes apontando diferenças de até 40% entre modelos.

A resposta curta é: markdown, por ser o formato com resultados mais consistente.

Abaixo uma tabela de objetivos vs. formato:

Objetivo do prompt

Formato recomendado

Por quê (base no paper)

Copy/briefings/argumentação (texto→texto; aprovações humanas)

Markdown

Hierarquia clara (títulos/listas) aumenta legibilidade e tende a performar melhor/empatar em GPT-4; fácil auditoria por seção.

Configurações/regras (políticas, limites, listas)

YAML

Ótimo p/ parametrizar, mas mais frágil a indentação; em alguns benchmarks fica atrás de Plain/JSON. Use quando a sua ferramenta consome YAML.

Pedidos muito curtos/simples (sem exigência de esquema)

Plaintext

Em certas tarefas de código, Plain superou Markdown (e até JSON) — mas não confie cegamente; padronize saída depois.

Saída estruturada que vai para CRM/Ads/BI (blocos padronizados)

JSON

Foi o formato mais penalizado no estudo, utilize apenas se você precisar preencher campos específicos.

Experimento SSR + Formato: qual estado brasileiro não contém a letra A?

Todo mundo já viu esse exemplo por aí, geralmente o ChatGPT responde Pernambuco. Para provar a relevância de um bom prompt, comparei os resultados a partir de dois prompts diferentes:

Primeiro fiz a pergunta diretamente utilizando GPT-5 Thinking

Como previsto, Pern-A-mbuco é a resposta de sempre.

Depois estruturei a pergunta utilizando SSR + Markdown utlizando GPT-Instant, mais fraco que o modelo de raciocínio, você pode ver todo o prompt e toda a respostas clicando nesse link (a cópia da minha conversa):

É claro que você não precisa de um prompt desse tamanho para uma pergunta tão simples. Na verdade, você não precisa do ChatGPT pra isso, mas serve de exemplo prático para ilustrar a relevância do input na qualidade do output.

Confiabilidade e precisão: evite ser '“manipulado” pela IA

O ensaio Why Language Models Hallucinate explica a raiz das “respostas confiantes e erradas”: o treinamento de modelos premia o acerto e pune o "não saber”, fazendo com que as LLMs decidam “chutar” as respostas para evitar avaliações punitivas.

Até então isso é algo inerente dos modelos, então nos resta criar contramedidas para nos protegermos.

  1. Prompt SSR: esse modelo de input não apenas faz o modelo entender melhor a pergunta, como também o obriga a desenvolver o raciocínio por trás das resposta, tornando tudo mais auditável.

  2. Direito de abstenção: explicite no prompt e na governança algo como “se não houver evidência suficiente, responda ‘não sei’ e peça os dados necessários para avançar".

  3. Base de conhecimento: sempre peça o cálculo/planilha para contas e a fonte ou base de conhecimento utilizada para fatos. Você pode construir essa base a partir dos projetos do ChatGPT, subindo até 20 arquivos (512MB) com até 2M de tokens por arquivo.
    Ao instruir o modelo, informe que ele está ancorado na base de conhecido e deve responder apenas com base nos arquivos anexados, sempre citando a fonte.
    Essa técnica se chama RAG - Retrieval-Augmented Generation (modelo de recuperação assistida) e é ideal para empresas e trabalhos recorrentes.

Por que é tão difícil implementar IA no trabalho de forma impactante?

Quase todas as empresas investem, mas só 1% se consideram maduras (IA integrada ao fluxo e entregando resultado robusto). 92% planejam aumentar investimento nos próximos 3 anos.

Enquanto isso, os funcionários já usam IA 3x mais do que seus líderes supões.

“Employees are three times more likely to be using gen AI today than their leaders expect”

Ao mesmo tempo, o sentimento geral em torno da IA é positivo, a 94% dos funcionários possui alta familiaridade com modelos generativos, mesmo entre os mais céticos. O que tem travado a adoção estratégica e impactante da IA tem sido a liderança e as estruturas organizacionais.

Destaco aqui alguns dos fatores que travam a implementação, segundo a McKinsey:

1) Alinhamento de liderança (a raiz dos outros problemas): Sem um acordo explícito sobre onde está o valor, como a IA vai gerar esse valor e como o risco será mitigado, cada área puxa para um lado. O relatório recomenda nomear um líder de valor & risco em IA ou criar uma função de orquestração em nível corporativo para sincronizar negócio, tecnologia e risco e definir métricas que guiam investimento/velocidade.

2) Incerteza de custo (build vs buy vs shape): Empresas ainda estão decidindo se “compram” soluções de prateleira, se “moldam” (customizam) ou se “constroem”. Ainda é difícil estimar custo e geração de valor

3) Planejamento de força de trabalho (skills que mudam de nome): Quantos especialistas de prompting sistemático, arquitetos de RAG, editores-anotadores e curadores de bases de conhecimento você precisa? Em quanto tempo? Onde contratar? E quais funções vão enxugar demanda exigindo requalificação?

Os times vão usar IA, a questão é com que nível de segurança e qual a extensão do impacto nos resultados da companhia. Se você é líder em uma organização, é sua responsabilidade (em conjunto com seus pares) promover esse movimento.

Utilizar IA não tão intuitivo assim

Qualquer um pode abrir o ChatGPT e fazer uma pergunta, mas explorar o potencial da IA generativa requer conhecimento mais profundo e a adoção de boas práticas (como em qualquer outra ferramenta).

Mas, diferente de outros sistemas, a IA é muito boa em nos agradar, nos mantendo ignorantes sobre a nossa própria falta de conhecimento por muito tempo. Ao destrinchar esses artigos direto da fonte construimos um manual melhor para o uso e implementação de IA em nosso dia a dia.

🎁 Na edição dessa semana, assinantes premium recebem o resumo detalhado dos 6 artigos utilizados nessa edição, organizado por artigo com resultados encontrados, casos de uso e implicações profissionais.

É a estruturação de notas/citações de mais de 160 páginas resumidas em apenas 20.

Início do doc

Espero que ele tenha sido útil. Até a próxima quinta, 10h07.

logo

Assine a versão paga para continuar

Este conteúdo é exclusivo para assinantes do Growth Insight Premium, a versão paga desta newsletter. Por menos de um real por dia, você fica mais inteligente em marketing e growth para o resto da vida :)

Assinar Plano Premium

Você também ganha acesso a:

  • Todo o conteúdo desbloqueado
  • Grupo de WhatsApp com trocas e conteúdo adicional
  • Uma edição aprofundada extra por mês
  • Uma mentoria com Collins e Witt por mês (coletiva)

Keep Reading

No posts found