Try using it in your preferred language.

English

  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Português
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar
translation

Esta é uma postagem traduzida por IA.

스타트업 커뮤니티 씬디스 (SeenThis.kr)

Snowflake lança 'Arctic', LLM empresarial com o mais alto nível de abertura do setor

  • Idioma de escrita: Coreana
  • País de referência: Todos os países country-flag

Selecionar idioma

  • Português
  • English
  • 汉语
  • Español
  • Bahasa Indonesia
  • Русский
  • 日本語
  • 한국어
  • Deutsch
  • Français
  • Italiano
  • Türkçe
  • Tiếng Việt
  • ไทย
  • Polski
  • Nederlands
  • हिन्दी
  • Magyar

Texto resumido pela IA durumis

  • A Snowflake lançou o 'Arctic', um modelo de linguagem de grande escala (LLM) de código aberto com desempenho e eficiência de primeira linha.
  • O Arctic está disponível sob a licença Apache 2.0 para uso comercial gratuito e pode ser personalizado graças ao suporte a várias estruturas.
  • Com o Arctic, a Snowflake fornece às empresas as bases de dados e os blocos de construção de IA de ponta necessários para criar aplicativos de IA/aprendizado de máquina práticos usando seus próprios dados.

Adicionado um modelo de linguagem de grande escala (LLM) aberto com desempenho e eficiência de primeira linha ao Snowflake Arctic Model Family

Open source sob a licença Apache 2.0… Flexibilidade personalizável fornecida por suporte a vários frameworks

A Snowflake, empresa global de nuvem de dados, lançou o Snowflake Arctic, um modelo de linguagem de grande escala (LLM) de nível empresarial com a maior abertura e desempenho do setor.

Projetado com o exclusivo método de Mistura de Especialistas (MoE) da Snowflake, o Arctic oferece desempenho e produtividade de primeira linha. Otimizado para lidar com os requisitos complexos das empresas, ele atinge as melhores condições em vários critérios, como geração de código SQL e execução de comandos.

O Arctic, em particular, possui uma licença Apache 2.0 que permite o uso comercial gratuito, e a Snowflake divulgou detalhes sobre os métodos de aprendizado de IA, estabelecendo um novo padrão aberto para tecnologias de IA de nível empresarial. Além disso, o LLM Arctic faz parte da família de modelos Snowflake Arctic e inclui um modelo de incorporação de texto para uso de pesquisa.

“A equipe de pesquisa de IA da Snowflake está na vanguarda da inovação em IA, criando um ponto de virada para a empresa”, disse Sridhar Ramaswamy, CEO da Snowflake. “Ao liberar desempenho e eficiência de ponta para a comunidade de IA como código aberto, a Snowflake está expandindo o escopo das possibilidades de IA de código aberto. A capacidade de IA da Snowflake também está se expandindo, fornecendo aos clientes modelos de IA competentes e confiáveis."

◇ Arctic, um LLM de código aberto que suporta colaboração em grande escala

De acordo com um relatório recente da Forrester, uma empresa de pesquisa de mercado, cerca de 46% dos tomadores de decisão de IA de empresas globais disseram que usam LLMs de código aberto existentes para implementar IA generativa em suas empresas como parte de suas estratégias de IA. A plataforma de nuvem de dados Snowflake é atualmente usada por mais de 9.400 empresas e organizações em todo o mundo. Eles podem usar LLMs que oferecem o mais alto nível de abertura do setor para aproveitar seus dados.

O Arctic, um modelo de código aberto sob a licença Apache 2.0, também oferece flexibilidade para escolher entre inferência e métodos de aprendizado com modelos de código. Os usuários podem usar e personalizar o Arctic com frameworks preferidos pelas empresas, como NVIDIA NIM, NVIDIA TensorRT-LLM, vLLM e Hugging Face. O Snowflake Cortex permite o uso imediato do Arctic por meio de inferência sem servidor. O Snowflake Cortex é um serviço totalmente gerenciado que oferece soluções de aprendizado de máquina e IA na nuvem de dados, com uma lista diversificada de modelos, incluindo Hugging Face, Lamini, Microsoft Azure, Catálogo de APIs da NVIDIA, Perplexity e Together AI. O uso do Arctic também estará disponível no Amazon Web Services (AWS).

◇ Eficiência de recursos superior e desempenho de primeira linha

A equipe de pesquisa de IA da Snowflake é composta por alguns dos melhores pesquisadores e engenheiros de sistemas do setor. O Arctic levou menos de três meses para ser construído. O treinamento do modelo usou a instância Amazon Elastic Compute Cloud (Amazon EC2) P5, e o custo do treinamento foi 1/8 do custo de modelos similares. A Snowflake está definindo novos padrões de velocidade de treinamento para modelos de ponta abertos e de nível empresarial, e, em última análise, permite que os usuários gerem modelos econômicos e personalizados na escala ideal.

O design MoE diferenciado do Arctic melhora os sistemas de treinamento e o desempenho do modelo por meio de uma montagem de dados detalhada que é ajustada de acordo com os requisitos da empresa. Além disso, ele fornece resultados de ponta, ativando 480 bilhões de parâmetros, 17 de cada vez, resultando em alta eficiência de tokens e qualidade de ponta. Para melhorar drasticamente a eficiência, o Arctic ativa cerca de 50% menos parâmetros do que o DBRX e 75% menos do que o Llama 3 70B durante a inferência ou treinamento. Ele também supera o desempenho de modelos de código aberto existentes populares, como DBRX e Mixtral-8x7B, em codificação (HumanEval+, MBPP+) e geração SQL (Spider), e também demonstra desempenho de ponta em compreensão de linguagem natural (MMLU, compreensão de linguagem de várias tarefas em grande escala).

◇ Inovação de IA para todos, liderada pela Snowflake

A Snowflake fornece a base de dados e os blocos de construção de IA de ponta que as empresas precisam para construir aplicativos de IA/Machine Learning práticos que usam seus próprios dados. Quando os clientes usam o Arctic por meio do Snowflake Cortex, fica mais fácil construir aplicativos de IA de produção na escala certa dentro do escopo de segurança e governança da nuvem de dados.

A família de modelos Snowflake Arctic, que inclui o LLM Arctic, também inclui o Arctic embed, um dos modelos de incorporação de texto de última geração lançados recentemente pela Snowflake. Este produto é de código aberto sob a licença Apache 2.0 e está disponível gratuitamente para a comunidade de código aberto. Esta família, composta por cinco modelos, está disponível imediatamente no Hugging Face e estará disponível em pré-visualização privada integrada ao Snowflake Cortex. Esta incorporação de texto, que é aproximadamente 1/3 do tamanho dos modelos semelhantes, é otimizada para desempenho de pesquisa de última geração, fornecendo uma solução eficiente e econômica para empresas que desejam combinar conjuntos de dados exclusivos com LLMs como parte de seus serviços de pesquisa aprimorada por geração (RAG) ou pesquisa semântica.

Recentemente, a Snowflake adicionou modelos da Reka e da Mistral AI, garantindo que os clientes tenham acesso aos LLMs mais recentes e de alto desempenho em sua nuvem de dados. Além disso, a empresa anunciou uma parceria expandida com a NVIDIA para continuar impulsionando a inovação em IA. A nuvem de dados da Snowflake, combinada com a plataforma de aceleração NVIDIA de ponta a ponta, fornece uma infraestrutura segura e poderosa e recursos de computação para alavancar a produtividade da IA em toda a indústria. A Snowflake Ventures também investiu recentemente em Landing AI, Mistral AI e Reka para ajudar os clientes a liberar o valor de LLMs e IA em seus próprios dados corporativos.



seenthis.kr
스타트업 커뮤니티 씬디스 (SeenThis.kr)
스타트업 커뮤니티 씬디스 (http://SeenThis.kr Startup Community web) 씬디스는 스타트업 커뮤니티입니다. 1. 모르면 물어보세요 2. 알면 답해주세요
seenthis.kr
Snowflake publica relatório de tendências de dados de 2024... Desenvolvedores de IA criam em média 90 aplicativos por dia A Snowflake, com base em uma pesquisa com mais de 9.000 clientes, revelou que a proporção de chatbots entre os aplicativos LLM aumentou, os desenvolvedores preferem Python e a quantidade de dados não estruturados também aumentou. Descubra mais detalhes no

16 de maio de 2024

SK C&C lança 'Soluer LLMOps', plataforma que oferece suporte à implementação de sLLM personalizadas para clientes A SK C&C lançou a 'Soluer LLMOps', uma plataforma de construção de modelos de linguagem de grande porte personalizados para empresas (sLLM). A plataforma permite aos usuários criar facilmente sLLMs usando modelos de fundamentação como ChatGPT e Hyperclova

20 de maio de 2024

Pleto e Upstage assinam acordo para construção de dados de linguagem de IA Pleto e Upstage assinaram um acordo de colaboração para a construção de dados de linguagem de baixo recurso na região asiática. Por meio desta colaboração, as duas empresas fortalecerão a cooperação para melhorar o desempenho de modelos de linguagem de gr

9 de maio de 2024

Construindo um AI Full Stack com Open Source Novos modelos de LLM (Large Language Model) de código aberto estão surgindo no ecossistema de IA. Mistral, Llama e phi-2 são alguns exemplos de modelos poderosos com licenças abertas que foram lançados. Ferramentas para utilizá-los também estão sendo dese
RevFactory
RevFactory
RevFactory
RevFactory

5 de fevereiro de 2024

O que é LLM (Large Language Model)? O modelo de linguagem de grande porte (LLM) é uma tecnologia central da inteligência artificial que aprende com uma quantidade enorme de dados de texto para adquirir a capacidade de processar linguagem semelhante à humana, podendo ser usada em uma varieda
세상 모든 정보
세상 모든 정보
세상 모든 정보
세상 모든 정보

1 de abril de 2024

O paradoxo dos modelos de IA de ponta: Transparência A falta de transparência nos sistemas de IA de ponta tornou-se um problema sério. Pesquisadores da Universidade de Stanford analisaram 10 sistemas de IA, incluindo o GPT-4, e concluíram que nenhum modelo divulga informações de forma transparente, como ori
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son
Byungchae Ryan Son

14 de maio de 2024

Lançamento do OpenELM da Apple / Phi-3 da MS / Llama 3 do Meta Apple, Microsoft e Meta, entre outras grandes empresas de tecnologia, estão revolucionando o setor de IA com o lançamento recente de seus próprios modelos de linguagem de grande porte. Os modelos lançados nesta rodada evoluíram em diversas direções, inclu
해리슨 블로그
해리슨 블로그
해리슨 블로그
해리슨 블로그

27 de abril de 2024

Mr. Know-All 6호 - Março de 2024 Apresentamos o LM Studio, uma plataforma que permite executar LLMs de código aberto como LLaMa, Falcon, MPT e StarCoder localmente, bem como Devin, um engenheiro de software de IA, e crewAI, uma plataforma de automação multi-agente, entre outras ferrament
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de março de 2024

Mr. Know-All – 2023.7 A edição de julho de 2023 da revista mensal de IA "Mr. Know-All", edição nº 1, apresenta as últimas tecnologias e tendências de IA, incluindo Claude 2, Azure OpenAI, LangChain e LlamaIndex. Em particular, fornece uma explicação detalhada do conceito chave
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy
Pilot AISmrteasy

21 de março de 2024