Quando o ChatGPT popularizou a interação por linguagem natural, muitos produtos assumiram que a interface do futuro seria isso: um campo de texto e um botão de enviar. O usuário digita o que quer, a IA responde, problema resolvido.
Só que isso não é design de interface. É ausência de design.
O resultado aparece na prática: usuários que não sabem o que perguntar, resultados inconsistentes, frustração com respostas que não fazem o que o usuário imaginava. O prompt transfere a carga cognitiva do sistema para a pessoa. E pessoas têm coisas melhores para fazer do que aprender a “falar direito” com uma ferramenta.
O problema não é a IA. É o modelo de interação.
Existe uma confusão persistente no mercado: tratar “interface conversacional” como sinônimo de “boa UX com IA”. São coisas diferentes.
Interface conversacional é um padrão de interação. Pode ser adequado em alguns contextos (assistentes pessoais, suporte ao cliente, exploração aberta). Em outros, é a pior escolha possível.
Pense em um sistema de agendamento. O usuário quer marcar uma reunião para terça às 14h com três pessoas. Em uma interface tradicional, ele clica no calendário, seleciona o horário, adiciona os participantes. Em uma interface de prompt, ele precisa escrever: “Agende uma reunião para terça-feira, dia 21, às 14h, com João, Maria e Carlos”.
A segunda opção parece mais “inteligente”. Mas exige que o usuário lembre os nomes exatos, especifique a data sem ambiguidade, e confie que a IA vai interpretar corretamente. Se a IA errar, ele precisa corrigir. Se a IA perguntar de volta, ele precisa responder. São mais passos, não menos.
A ilusão da simplicidade
A caixa de texto vazia parece simples porque tem poucos elementos visuais. Mas simplicidade de interface não é a mesma coisa que simplicidade de uso.
Interface de prompt
- Zero orientação visual
- Usuário precisa saber o que perguntar
- Resultados dependem da formulação
- Erro exige reescrita manual
- Curva de aprendizado oculta
Interface estruturada
- Opções visíveis e acionáveis
- Sistema guia o próximo passo
- Resultados previsíveis
- Erro corrigido com clique
- Curva de aprendizado explícita
A simplicidade real reduz a carga cognitiva do usuário. A falsa simplicidade apenas esconde a complexidade em outro lugar, geralmente na cabeça de quem está usando.
Onde a linguagem natural faz sentido
Não estou dizendo que prompt é sempre ruim. Estou dizendo que é uma ferramenta, não uma estratégia universal.
A linguagem natural funciona bem quando:
- A tarefa é exploratória e o escopo não está definido previamente
- O usuário tem expertise no domínio e sabe articular o que precisa
- A interação é iterativa por natureza (pesquisa, brainstorm, análise aberta)
- O custo de erro é baixo e a correção é fácil
Ela funciona mal quando:
- A tarefa tem parâmetros conhecidos que podem ser apresentados como opções
- O usuário não é especialista e precisa de orientação
- A precisão é crítica (transações, configurações, dados sensíveis)
- O feedback loop entre intenção e resultado precisa ser imediato
O que designers estão fazendo diferente
O padrão que está emergindo em produtos bem desenhados é híbrido. Não é “ou prompt ou interface tradicional”. É usar cada padrão onde ele resolve melhor o problema.
1. Prompt assistido
Em vez de caixa vazia, o sistema oferece sugestões contextuais. O Notion AI faz isso: quando você abre o assistente, ele sugere ações baseadas no conteúdo atual. “Resumir esta página”, “Traduzir para inglês”, “Criar lista de tarefas”. O usuário pode ignorar e escrever o que quiser, mas a maioria não precisa.
2. Controles estruturados com IA por baixo
O usuário interage com interface tradicional. A IA processa por baixo. O Figma AI funciona assim em várias funções: você seleciona um elemento, clica em “remover fundo”, e a IA executa. Não há prompt. O verbo é o clique.
3. Confirmação antes da execução
Para agentes de IA que executam ações, o padrão mais seguro é mostrar o que vai ser feito antes de fazer. O usuário não escreve “exclua os emails antigos”. O sistema interpreta, mostra “Vou excluir 47 emails anteriores a janeiro de 2024”, e espera confirmação.
4. Fallback para linguagem natural
A caixa de texto existe, mas como escape hatch. O caminho principal é estruturado. O prompt serve para casos de borda que a interface não previu.
O caso dos agentes autônomos
Com agentes de IA ganhando tração, o problema de interface fica mais crítico, não menos.
Um agente que executa tarefas em nome do usuário precisa de clareza sobre escopo, permissões e limites. Delegar isso ao prompt é receita para desastre. O usuário digita “organize meus arquivos”, o agente interpreta de um jeito, e quando o usuário percebe, metade dos documentos foi movida para pastas que ele não reconhece.
Os produtos que estão acertando tratam o agente como um sistema que precisa de configuração explícita, não como um assistente que “entende” tudo por linguagem natural.
- O usuário sabe exatamente o que o agente pode e não pode fazer?
- Existe confirmação antes de ações destrutivas ou irreversíveis?
- O sistema mostra o que está fazendo em tempo real?
- Há limites configuráveis de escopo (quais pastas, quais dados, quais ações)?
- O fallback para controle manual é acessível e óbvio?
O custo de ignorar isso
Quando a interface é só um prompt, a qualidade da experiência depende inteiramente da habilidade do usuário em formular pedidos. Isso cria dois problemas de negócio:
Primeiro, a percepção de valor do produto fica instável. O mesmo sistema parece “incrível” para quem sabe usar e “inútil” para quem não sabe. A adoção cai, o churn sobe, e a causa real fica mascarada porque não aparece em métricas de erro técnico.
Segundo, o suporte explode. Usuários não entendem por que a IA “não funciona” quando na verdade funciona, só não do jeito que eles esperavam. A documentação não resolve porque o problema não é falta de informação. É falta de design.
O que muda na prática
Se você está construindo ou especificando um produto com IA, a pergunta não é “como o usuário vai escrever o prompt”. É: qual é a tarefa que o usuário quer realizar, e qual padrão de interface reduz mais a fricção entre intenção e resultado?
Em muitos casos, a resposta não envolve prompt nenhum. Envolve entender o contexto, oferecer opções relevantes, e deixar a IA trabalhar por baixo sem que o usuário precise pensar nela.
A linguagem natural foi uma inovação importante porque permitiu interação sem aprender comandos específicos. Mas tratar isso como destino final do design de interface é confundir o meio com o fim. O fim é resolver o problema do usuário com o mínimo de esforço. Às vezes isso envolve um prompt. Na maioria das vezes, não.
Autor
Raphael Pereira
Designer e estrategista focado em experiências digitais orientadas por performance.
Relacionados
Como Avaliar se sua IA em Produção está Realmente Funcionando
A maioria das empresas coloca IA em produção sem saber como medir se está funcionando. Este guia transforma monitoramento técnico em decisão estratégica.
Continuar leitura
Engenharia Ágil com IA: Quando o 'Vibe Coding' Vira Produção
O código gerado por IA deixou de ser curiosidade. Agora é decisão de arquitetura.
Continuar leitura