生成AI「Llama」の最新モデルLlama3.2とは?商用利用や活用方法を徹底解説

大森 敏彦
大森 敏彦
January 17, 2025
生成AI「Llama」の最新モデルLlama3.2とは?商用利用や活用方法を徹底解説
Image created with AI and Canva

Llama(ラマ)は、Meta社(旧Facebook社)が開発した大規模言語モデル(英語でLarge Language Model Meta AI)の略称で、自然言語処理に優れた生成AIです。この記事では、2024年11月時点での最新モデル「Llama3.2」の特徴や商用利用の可否、何種類かある導入方法を解説します。

Llamaはどんな生成AI?

Meta社の生成AI「Llama」

Llamaは2023年2月に初めて発表された、大規模言語モデル(LLM)の一つです。2024年11月現在までにLlama、Llama2、Llama3という3つのバージョンがリリースされており、2024年9月には最新モデルである「Llama3.2」が発表されました。

Llamaの中でも、モデルの規模は扱えるパラメータ数によって異なり、8B(80億)、70B(700億)、405B(4,050億)などがあります。パラメータが多いほど高精度な自然言語処理が可能ですが、その分コストも増大します。

Llama

https://www.llama.com/

Llamaの特徴

自然言語処理の能力に優れている

Llamaは、テキストの生成や要約、翻訳など、自然言語処理(NLP)分野での高い性能を持っています。最新モデルLlama3.2では、画像認識機能も追加され、グラフや図を解釈して説明文を生成することも可能です。

オープンソースかつ商用利用可能

Llamaはオープンソースのため、多くの研究機関や企業で活用されています。例えば、東工大と産総研が共同開発した「Llama-3-Swallow」は、Llamaを基にした独自モデルです。また、Llama3.2は商用利用が可能です。月間アクティブユーザー数が7億人を超える場合はMeta社のライセンスが必要ですが、多くの企業や個人の場合は無料で商用利用可能です。

エンジニア向けの高いカスタマイズ性

Llamaをそのまま使用するには、利用環境の構築が必要になります。自分のPCやサーバーにLlamaをインストールして使用するのが一般的です。利用環境の構築はビジネスパーソンの業務効率化が目的の場合はやや敷居が高いものの、エンジニアが使用する際は、Chat-GPTやClaudeなどの他の生成AIに比べて、高いカスタマイズ性があるのが魅力です。

LlamaをChat-GPTのようにブラウザで利用するためには、Meta社以外が開発しているツールを経由する必要があります。詳しくは後述します。

Llamaは商用利用が可能

基本料金

Llama 3.2はオープンソースとして提供されており、非営利目的や研究目的の場合は無料で利用できます。Meta社のライセンスポリシーに基づき、以下の条件に該当しない限り、商用利用も無料で可能です。

・月間アクティブユーザー(MAU)が7億人未満のサービス

・サービスが非営利目的である場合

商用利用の条件下で以下に該当する場合、Meta社とのライセンス契約が必要です。

・月間アクティブユーザー数(MAU)が7億人以上のサービス

・高収益を見込む大規模な商用プロジェクト

具体的なライセンス契約費用は、プロジェクトの規模や目的に応じて異なり、詳細はMeta社と個別に交渉する形となります。

APIの使用料金

Llama APIの利用料金はトークン数に対して料金が適応され、それぞれモデルによって金額が違います。

・Small(0B-8B)の場合

  $0.0004 /1K tokens

・Medium(8B-30B)の場合

  $0.0016 /1K tokens

・Large(>30B)の場合

  $0.0028 / 1K tokens

 ※2024年11月現在

このBはパラメータ数を表し、Billion(10億)単位で表示されています。後述するLlama 3.2の場合、1B、3B、90B、11Bといったトークン数別のモデルがあります。処理できるトークン数が多いモデルほど、1K(1000)トークンあたりの金額も高くなります。Llamaの公式サイトでも確認できます。

参考:Pricing | llamaapi

https://www.llama-api.com/pricing

Meta社にライセンスリクエストを送ることでモデルをDLできる

Meta社のWebサイトからLlamaの利用ライセンスのリクエストを送ると、申請が通ればモデルのダウンロードが可能です。この方法は環境構築が必要なため、エンジニア向けの方法です。

参考:Download Llama

https://www.llama.com/llama-downloads/

Llama 3.2とは?

2024年9月に発表されたLlama3.2は、大規模モデルと軽量モデルの2つが用意されています。主にパラメータ(処理できる容量)や性能、スピードに違いがあります。

大規模モデル

高い性能を持ったモデルです。

・90B(900億パラメータ)または11B(110億パラメータ)のモデル

・グラフや画像の認識に対応し、テキスト生成以外の用途でも高い性能を発揮

公式ベンチマークでは「Claude 3 Haiku」や「GPT-4o-mini」と同等の性能を示しています。

軽量モデル

軽量でスピード重視のモデルです。

・3B(30億パラメータ)または1B(10億パラメータ)のモデル

・スマートフォン向けに設計され、軽量かつ高速な処理が可能

・多言語対応に優れ、モバイル環境での利用に最適

公式ベンチマークでは、同じような軽量モデルのGemma 2 2.6BモデルとPhi 3.5-miniと同等かそれ以上の処理能力を持っています。

参考:Llama 3.2: Revolutionizing edge AI and vision with open, customizable models

https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices/

Llama3.2も商用利用可能(一部例外あり)

Llama3.2も、これまでのLlamaと同様に基本的に商用利用が可能です。月間7億ユーザーを超える場合や、高収益を見込める大規模な商用プロジェクトにおいては、ライセンス申請が必要になります。

参考:Llama-3.2のコミュニティライセンス(原文英語)

https://huggingface.co/meta-llama/Llama-3.2-1B/blob/main/LICENSE.txt

参考:META LLAMA 3 COMMUNITY LICENSE AGREEMENT

https://www.llama.com/llama3/license/

Llamaの使い方

Llamaは他の生成AIと違い、基本的にはLlama用に環境構築が必要です。自分のパソコン上のローカル環境、またはサーバー上にLlama用に環境構築をするのは、エンジニア以外の人にはなかなか厳しいでしょう。Llamaが利用できる別サービスを使えば、ブラウザ上で試すことも可能ですので、併せて利用方法を紹介します。

Llamaの利用方法の例

Hugging Faceから利用する方法(エンジニア向け)

Hugging Faceは、多数の機械学習モデルを提供するプラットフォームで、Llama 3.2も利用可能です。公式サイトでアカウントを作成後、Llama 3.2を検索して、モデルページで「Use in Transformers」ボタンをクリックして、コードをコピーします。その後、Python環境を準備し、必要なライブラリ(transformersなど)をインストールして、コードを実行することでLlamaを使用可能です。

参考:Llama 3.2 - a meta-llama Collection

https://huggingface.co/collections/meta-llama/llama-32-66f448ffc8c32f949b04c8cf

Amazon Bedrock上から利用する方法(エンジニア向け)

Amazon Bedrockは、AWS(Amazon Web Services) が提供する生成AIアプリケーションの構築に必要な機能を備えたサービスです。Llama以外にも様々なAIのAPIを使用することができます。

参考:Meta Llama - Amazon Bedrock のモデル - AWS

https://aws.amazon.com/jp/bedrock/llama/

Meta AI上から利用する方法(日本非対応)

Meta社が提供するAIアシスタント「Meta AI」上でもLlamaは使用可能ですが、2024年11月現在、日本からは利用できません。

Groq上から利用する方法(非エンジニアでも可能)

Groqも会話型AIで、超高速な処理環境が特徴です。このGroq上で、Llama3.2の利用が可能です。 

まず、https://groq.com/にアクセスします。

検索バーに文字を入力すると、アカウント作成が求められますので、作成しましょう。Googleでのログインも可能です。

次に、もう一度バーに文字を入力すると、結果が出力されます。

この時点ではまだLlamaを使ったチャットではないため、右上の「USE FULL CHAT」をクリックしましょう。

ここで、Llamaの各モデルを選択できます。前述したLlama3.2のトークン数別の4つのモデルも選択可能です。

モデルを選択したら、実際にプロンプト(指示文)を入力しましょう。

Groqを使ったこの方法であれば、エンジニアでなくてもお手軽にLlamaを試すことができます。

Perplexity AIで利用する方法(非エンジニアでも可能)

Perplexity AIは、ブラウザ上で機能する生成AIを使用したチャット型の検索エンジンです。こちらも、Llama 3.2を試すことができます。

https://labs.perplexity.ai/にアクセスします。perplexityのトップページではなく、labsというサブドメインのページです。こちらであれば、アカウントの登録は不要でLlamaを使用可能です。

右下のモデル選択からllamaの各モデルを選択します。2024年11月現在、最新の3.2は使用できず、3.1までが使用できるようです。

他の生成AIサービスと同様に、プロンプト(指示文)を入力すると回答が出力されます。

ブラウザ上で動作するため、特別な環境構築は不要です。とはいっても、あくまで「お試し」感が強い使い方のため、簡単に試してみたい方に向いている使い方です。

Groqにせよ、Perplexity AIにせよ、あくまでテキストベースでLlamaを使用できるに留まり、画像認識機能や高度なデータ分析のためにデータを読み込ませる、といったことはできません。そのため、Llamaを本格的に使用するには、環境構築やAPI利用など、エンジニアの力が必要といえるでしょう。

ビジネスパーソンや個人的な利用を考えている人は、Chat-GPTやClaudeなどの生成AIが向いているかもしれません。

OpenAI o1(Chat-GPT o1)とは?最新モデルの特徴や使い方を説明

Claudeとは?特徴や料金、実用的な使い方を紹介

X(旧Twitter)の生成AI「Grok」とは?ユーモア溢れる使い方を紹介!

まとめ:Llamaは商用利用可能でエンジニア向けのAI

Llama3.2は、強力な自然言語処理能力や画像認識機能を備えた生成AIです。商用利用や多様な環境での活用が可能ですが、Chat-GPTやClaudeと異なり、エンジニアリングスキルが求められるため、特定のユーザー層向けといえます。

ブラウザで簡単に試したい方にはPerplexity AIやGroq、技術的な導入を検討している方にはHugging Faceなどを活用するのがおすすめです。

──
本メディアでは、生成AIの活用方法・企業におけるAIの活用事例について紹介していきます。メディアを運営するatmaLabでは、企業のAI / IT 導入アドバイザリーやAI / IT システム開発を受け付けています。
\ 無料で相談・お見積もり /
お問い合わせはこちら
この記事をシェアする
大森 敏彦
大森 敏彦
2016年からWebマーケティング業務に従事し、プログラミング教育事業やBtoBマーケティング、旅行業界などに携わる。自作のGPTsではスプレッドシートの業務効率化を日々行なっている。好きな生成AIはGemini。
峯林 晃治
監修:
峯林 晃治
Webディレクター、SEOコンサルタントを経て、2013年に事業会社に入社。主にBtoB領域のデジタルマーケティングに携わる。2020年に独立。ファストマーケティング株式会社を立上げ、BtoB企業向けのコンテンツマーケティングの支援サービスを提供。
▼ URL▼ Twitter