Há rumores de que a Apple está adotando uma abordagem diferente para implantar IA generativa no iOS 18 e nos modelos de iPhone de próxima geração, mantendo todo o processamento no dispositivo em vez de enviá-lo para a nuvem e de volta para produzir respostas.
Esses relatórios parecem bem fundamentados, considerando a abordagem robusta da Apple em relação à privacidade do usuário e à forma anterior. Manter as solicitações inteiramente locais provavelmente será mais rápido e seguro do que enviar as informações para a estratosfera e vice-versa.
No entanto, não está claro se os modelos no dispositivo terão acesso à mesma riqueza de conhecimento que os modelos que consultam a nuvem, como o Gemini do Google e o ChatGPT da OpenAI. A Samsung, por exemplo, usa uma combinação de habilidade no dispositivo e processamento em nuvem para seu Galaxy AI. Há rumores de que a Apple está estudando um acordo com o Google para preencher as lacunas, trazendo o Gemini para os iPhones.
Também não está claro se o uso de um modelo no dispositivo limitará os novos recursos às próximas gerações de hardware do iPhone, em vez dos dispositivos existentes.
Obtenha um iPhone 12 Pro Max ‘como novo’ por apenas £ 449
Agora você pode comprar um iPhone 12 Pro Max recondicionado ‘como novo’ por apenas £ 449, que é um preço decididamente intermediário.
- GiffGaff
- Condição remodelada ‘como nova’
- Agora £ 449
Agora há mais algumas evidências que sugerem que esse é exatamente o caminho que a Apple tentará seguir. Esta semana, a Apple lançou uma série de modelos de linguagem grande de código aberto que são, você adivinhou, desenvolvidos para processamento no dispositivo.
Como MacRumores relatórios, a empresa publicou um papel branco no lançamento de oito OpenELM (modelos de linguagem eficientes de código aberto) na comunidade de IA no aplicativo Hugging Face.
A Apple avalia que o desempenho está no mesmo nível de outros LLMs que utilizam a ajuda da nuvem após receberem menos treinamento. Ele espera que os desenvolvedores se envolvam para ajudar a promover a confiabilidade e a confiabilidade dos resultados.
O artigo explica: “Para esse fim, lançamos o OpenELM, um modelo de linguagem aberta de última geração. OpenELM usa uma estratégia de escalonamento em camadas para alocar parâmetros com eficiência dentro de cada camada do modelo do transformador, levando a maior precisão. Por exemplo, com um orçamento de parâmetros de aproximadamente um bilhão de parâmetros, o OpenELM apresenta uma melhoria de 2,36% na precisão em comparação com o OLMo, ao mesmo tempo que requer 2x menos tokens de pré-treinamento.
“Divergindo das práticas anteriores que fornecem apenas pesos de modelo e código de inferência e pré-treinamento em conjuntos de dados privados, nosso lançamento inclui a estrutura completa para treinamento e avaliação do modelo de linguagem em conjuntos de dados disponíveis publicamente, incluindo logs de treinamento, vários pontos de verificação e pré-configurações de treinamento. Também lançamos código para converter modelos para a biblioteca MLZ para inferência e ajuste fino em dispositivos Apple. Este lançamento abrangente visa capacitar e fortalecer a comunidade de pesquisa aberta, abrindo caminho para futuros empreendimentos de pesquisa aberta.”
Você tem grandes esperanças de que a Apple mergulhe na IA generativa no iOS 18 e nos futuros iPhones? Deixe-nos saber @trustedreviews no Twitter.