Metan uusimmat multimodaaliset Llama 3.2 -mallit julkaistiin Microsoft Azuressa ja Google Cloudissa

Metan uusimmat multimodaaliset Llama 3.2 -mallit julkaistiin Microsoft Azuressa ja Google Cloudissa

Connect 2024 -tapahtumassa Metan perustaja ja toimitusjohtaja Mark Zuckerberg ilmoitti Llama 3.2: n debyytistä . Tämä uusi versio esittelee pienet ja keskikokoiset vision suuret kielimallit (LLM) 11B- ja 90B-parametreilla sekä valikoiman laitteessa olevia vain tekstimalleja (1B- ja 3B-parametrit). Erityisesti uudet 11B- ja 90B-näkömallit edustavat Llaman ensimmäistä yritystä multimodaalisiin ominaisuuksiin.

Microsoft on myös ilmoittanut , että Llama 3.2 11B Vision Instruct- ja Llama 3.2 90B Vision Instruct -mallit ovat nyt saatavilla Azure AI Model Catalogissa . Lisäksi kehittäjät voivat pian odottaa näiden parannettujen mallien palvelimettomien sovellusliittymien tekemisen Models-as-a-Service (MaaS) kautta.

Saatavilla olevat Llama 3.2 -mallit hallitun laskennan päättelyyn Azuressa ovat:

  • Liekki 3.2 1B
  • Laama 3.2 3B
  • Laama 3.2-1B-Ohje
  • Laama 3.2-3B-Ohje
  • Llama Guard 3 1B
  • Llama 3.2 11B Vision Instruct
  • Llama 3.2 90B Vision Instruct
  • Llama Guard 3 11B Vision

Tällä hetkellä hienosäätöä tarjotaan vain Llama 3.2 1B Instruct- ja 3B Instruct -malleille. Microsoft kuitenkin suunnittelee laajentavansa hienosäätöominaisuuksia muihin Llama 3.2 -mallikokoelmiin tulevien kuukausien aikana. Nämä mallit toimivat rajalla 200 000 tokenia minuutissa ja 1 000 pyyntöä minuutissa . Kehittäjiä, jotka vaativat korkeampaa hintarajaa, kehotetaan ottamaan yhteyttä Microsoft-tiimiin mahdollisia muutoksia varten.

Lisäksi Google on ilmoittanut , että kaikki Llama 3.2 -mallit ovat nyt saatavilla Vertex AI Model Gardenissa, mikä mahdollistaa itsepalvelun käyttöönoton. Tällä hetkellä vain Llama 3.2 90B -malli on tarjolla esikatselussa Googlen MaaS-ratkaisun kautta.

Llama 3.2 -mallien yhteydessä Meta on ottanut käyttöön Llama Stack -jakelut . Nämä jakelut on suunniteltu virtaviivaistamaan sitä, miten kehittäjät käyttävät Llama-malleja eri ympäristöissä, joita ovat yksisolmuiset, paikalliset, pilvi- ja laitteen asetukset. Meta-tiimi on julkistanut seuraavat:

  • Llama CLI (komentorivin käyttöliittymä) Llama Stack -jakelujen luomiseen, määrittämiseen ja suorittamiseen
  • Asiakaskoodi saatavilla useilla ohjelmointikielillä, kuten Python, Node.js, Kotlin ja Swift
  • Docker-säiliöt Llama Stack Distribution Serverille ja Agents API Providerille
  • Erilaisia ​​jakeluja:
    • Yhden solmun Llama Stack Distribution sisäisen Meta-toteutuksen ja Ollaman kautta
    • Cloud Llama Stack -jakelut AWS:n, Databricksin, Fireworksin ja Togetherin kautta
    • Laitteen Llama Stack Distribution iOS:ssä toteutettu PyTorch ExecuTorchin avulla
    • Dellin tukema paikallinen Llama Stack Distribution

Llama 3.2 -mallien ja Llama Stack -jakelujen käyttöönotto merkitsee keskeistä edistystä kehittäjien kestävien tekoälymallien saatavuuden parantamisessa. Tämän edistyksen odotetaan lisäävän innovaatioita ja laajempaa tekoälyn käyttöönottoa eri aloilla.

Lähde

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *