Apple Intelligence agora traduz conversas em tempo real e interpreta a tela do iPhone

2 Min de leitura
Foto: Reprodução/X
Foto: Reprodução/X

Nesta segunda-feira (09), durante a WWDC 2025, sua conferência anual para desenvolvedores, a Apple revelou o novo iOS 26 e trouxe avanços significativos para sua inteligência artificial, o Apple Intelligence. Entre as novidades, destaca-se a capacidade de traduzir conversas em tempo real dentro de diversos aplicativos do ecossistema, como Mensagens, Telefone e FaceTime.

Durante a demonstração no evento, a Apple apresentou a funcionalidade de tradução simultânea, que já está disponível em português brasileiro. O recurso permite que todo o conteúdo de ligações seja traduzido instantaneamente, além de mensagens enquanto o usuário digita, tornando a comunicação mais acessível e dinâmica.

Além disso, os recursos Image Playground e Genmoji foram aprimorados, oferecendo aos usuários mais autonomia para criar imagens personalizadas. O Apple Intelligence também recebeu uma atualização com suporte oficial para o idioma português-brasileiro, com previsão de expansão para outros idiomas.

Apple Intelligence agora “lê” a tela do iPhone

Outra inovação interessante dessa atualização é o reconhecimento de tela, que permite à IA interpretar o conteúdo exibido no display e oferecer interações rápidas. Por exemplo, ao pesquisar um produto específico, o sistema pode sugerir alternativas automaticamente.

No contexto de compras, a inteligência artificial agora consegue identificar e organizar aquisições feitas pelo usuário, incluindo aquelas realizadas fora do sistema Apple Pay. Para os adeptos de atividades físicas, a funcionalidade Workout Buddy foi aprimorada, integrando dados de treinos e histórico de condicionamento físico para uma experiência mais personalizada.

Compartilhar