TL;DR
- A Meta anunciou que está abrindo o código de seu grande modelo de linguagem Llama 2.
- Meta diz que a decisão foi tomada para dar às empresas, startups e pesquisadores acesso a mais ferramentas de IA.
- O Llama 2 estará disponível através do Microsoft Azure, AWS, Hugging Face e outros provedores.
Hoje, a Microsoft realizou seu evento Inspire, onde a empresa anunciou produtos e parcerias relacionadas à IA. No evento, a Meta revelou sua parceria com a Microsoft que tornará o modelo de linguagem grande (LLM) da Meta gratuito para o público e pesquisadores.
Conforme declarado no blog da Meta, a Meta está expandindo sua parceria com a Microsoft, tornando a empresa sediada em Redmond a parceira preferencial para seu LLM (Llama 2). Como a Microsoft observa em seu próprio blog, o Llama 2 terá suporte no Azure e no Windows. Também foi revelado que a Qualcomm está trabalhando com a Meta para trazer o Llama 2 para telefones, laptops e fones de ouvido a partir de 2024 para aplicativos baseados em IA que não dependem de serviços em nuvem.
A Meta afirma que decidiu abrir o código com o Llama 2 para dar às empresas, startups, empreendedores e pesquisadores acesso a mais ferramentas. Essas ferramentas abririam “oportunidades para eles experimentarem, inovarem de maneiras empolgantes e, por fim, se beneficiarem econômica e socialmente”.
De acordo com o comunicado de imprensa, parece que a Meta acredita que abrir o acesso à sua IA a torna mais segura. Ele observa que desenvolvedores e pesquisadores poderão testar o estresse do LLM, o que ajudará na identificação e resolução de problemas mais rapidamente.
A empresa explica ainda que o Llama 2 foi “red-teamed” – testado e ajustado para segurança por ter equipes internas e externas “gerando prompts adversários”. A Meta acrescenta que “continuará investindo em segurança por meio de ajustes finos e benchmarking” do modelo.
O Llama 2 está disponível a partir de hoje no catálogo de modelos do Azure AI e é otimizado para funcionar no Windows localmente. No entanto, também estará disponível através da Amazon Web Services (AWS), Hugging Face e outros provedores.