Llama(ラマ)は、Meta社(旧Facebook社)が開発した大規模言語モデル(英語でLarge Language Model Meta AI)の略称で、自然言語処理に優れた生成AIです。この記事では、2024年11月時点での最新モデル「Llama3.2」の特徴や商用利用の可否、何種類かある導入方法を解説します。
Llamaはどんな生成AI?
Meta社の生成AI「Llama」
Llamaは2023年2月に初めて発表された、大規模言語モデル(LLM)の一つです。2024年11月現在までにLlama、Llama2、Llama3という3つのバージョンがリリースされており、2024年9月には最新モデルである「Llama3.2」が発表されました。
Llamaの中でも、モデルの規模は扱えるパラメータ数によって異なり、8B(80億)、70B(700億)、405B(4,050億)などがあります。パラメータが多いほど高精度な自然言語処理が可能ですが、その分コストも増大します。
Llama
Llamaの特徴
自然言語処理の能力に優れている
Llamaは、テキストの生成や要約、翻訳など、自然言語処理(NLP)分野での高い性能を持っています。最新モデルLlama3.2では、画像認識機能も追加され、グラフや図を解釈して説明文を生成することも可能です。
オープンソースかつ商用利用可能
Llamaはオープンソースのため、多くの研究機関や企業で活用されています。例えば、東工大と産総研が共同開発した「Llama-3-Swallow」は、Llamaを基にした独自モデルです。また、Llama3.2は商用利用が可能です。月間アクティブユーザー数が7億人を超える場合はMeta社のライセンスが必要ですが、多くの企業や個人の場合は無料で商用利用可能です。
エンジニア向けの高いカスタマイズ性
Llamaをそのまま使用するには、利用環境の構築が必要になります。自分のPCやサーバーにLlamaをインストールして使用するのが一般的です。利用環境の構築はビジネスパーソンの業務効率化が目的の場合はやや敷居が高いものの、エンジニアが使用する際は、Chat-GPTやClaudeなどの他の生成AIに比べて、高いカスタマイズ性があるのが魅力です。
LlamaをChat-GPTのようにブラウザで利用するためには、Meta社以外が開発しているツールを経由する必要があります。詳しくは後述します。
Llamaは商用利用が可能
基本料金
Llama 3.2はオープンソースとして提供されており、非営利目的や研究目的の場合は無料で利用できます。Meta社のライセンスポリシーに基づき、以下の条件に該当しない限り、商用利用も無料で可能です。
・月間アクティブユーザー(MAU)が7億人未満のサービス
・サービスが非営利目的である場合
商用利用の条件下で以下に該当する場合、Meta社とのライセンス契約が必要です。
・月間アクティブユーザー数(MAU)が7億人以上のサービス
・高収益を見込む大規模な商用プロジェクト
具体的なライセンス契約費用は、プロジェクトの規模や目的に応じて異なり、詳細はMeta社と個別に交渉する形となります。
APIの使用料金
Llama APIの利用料金はトークン数に対して料金が適応され、それぞれモデルによって金額が違います。
・Small(0B-8B)の場合
$0.0004 /1K tokens
・Medium(8B-30B)の場合
$0.0016 /1K tokens
・Large(>30B)の場合
$0.0028 / 1K tokens
※2024年11月現在
このBはパラメータ数を表し、Billion(10億)単位で表示されています。後述するLlama 3.2の場合、1B、3B、90B、11Bといったトークン数別のモデルがあります。処理できるトークン数が多いモデルほど、1K(1000)トークンあたりの金額も高くなります。Llamaの公式サイトでも確認できます。
参考:Pricing | llamaapi
https://www.llama-api.com/pricing
Meta社にライセンスリクエストを送ることでモデルをDLできる
Meta社のWebサイトからLlamaの利用ライセンスのリクエストを送ると、申請が通ればモデルのダウンロードが可能です。この方法は環境構築が必要なため、エンジニア向けの方法です。
参考:Download Llama
https://www.llama.com/llama-downloads/
Llama 3.2とは?
2024年9月に発表されたLlama3.2は、大規模モデルと軽量モデルの2つが用意されています。主にパラメータ(処理できる容量)や性能、スピードに違いがあります。
大規模モデル
高い性能を持ったモデルです。
・90B(900億パラメータ)または11B(110億パラメータ)のモデル
・グラフや画像の認識に対応し、テキスト生成以外の用途でも高い性能を発揮
公式ベンチマークでは「Claude 3 Haiku」や「GPT-4o-mini」と同等の性能を示しています。
軽量モデル
軽量でスピード重視のモデルです。
・3B(30億パラメータ)または1B(10億パラメータ)のモデル
・スマートフォン向けに設計され、軽量かつ高速な処理が可能
・多言語対応に優れ、モバイル環境での利用に最適
公式ベンチマークでは、同じような軽量モデルのGemma 2 2.6BモデルとPhi 3.5-miniと同等かそれ以上の処理能力を持っています。
参考:Llama 3.2: Revolutionizing edge AI and vision with open, customizable models
https://ai.meta.com/blog/llama-3-2-connect-2024-vision-edge-mobile-devices/
Llama3.2も商用利用可能(一部例外あり)
Llama3.2も、これまでのLlamaと同様に基本的に商用利用が可能です。月間7億ユーザーを超える場合や、高収益を見込める大規模な商用プロジェクトにおいては、ライセンス申請が必要になります。
参考:Llama-3.2のコミュニティライセンス(原文英語)
https://huggingface.co/meta-llama/Llama-3.2-1B/blob/main/LICENSE.txt
参考:META LLAMA 3 COMMUNITY LICENSE AGREEMENT
https://www.llama.com/llama3/license/
Llamaの使い方
Llamaは他の生成AIと違い、基本的にはLlama用に環境構築が必要です。自分のパソコン上のローカル環境、またはサーバー上にLlama用に環境構築をするのは、エンジニア以外の人にはなかなか厳しいでしょう。Llamaが利用できる別サービスを使えば、ブラウザ上で試すことも可能ですので、併せて利用方法を紹介します。
Llamaの利用方法の例
Hugging Faceから利用する方法(エンジニア向け)
Hugging Faceは、多数の機械学習モデルを提供するプラットフォームで、Llama 3.2も利用可能です。公式サイトでアカウントを作成後、Llama 3.2を検索して、モデルページで「Use in Transformers」ボタンをクリックして、コードをコピーします。その後、Python環境を準備し、必要なライブラリ(transformersなど)をインストールして、コードを実行することでLlamaを使用可能です。
参考:Llama 3.2 - a meta-llama Collection
https://huggingface.co/collections/meta-llama/llama-32-66f448ffc8c32f949b04c8cf
Amazon Bedrock上から利用する方法(エンジニア向け)
Amazon Bedrockは、AWS(Amazon Web Services) が提供する生成AIアプリケーションの構築に必要な機能を備えたサービスです。Llama以外にも様々なAIのAPIを使用することができます。
参考:Meta Llama - Amazon Bedrock のモデル - AWS
https://aws.amazon.com/jp/bedrock/llama/
Meta AI上から利用する方法(日本非対応)
Meta社が提供するAIアシスタント「Meta AI」上でもLlamaは使用可能ですが、2024年11月現在、日本からは利用できません。
Groq上から利用する方法(非エンジニアでも可能)
Groqも会話型AIで、超高速な処理環境が特徴です。このGroq上で、Llama3.2の利用が可能です。
まず、https://groq.com/にアクセスします。
検索バーに文字を入力すると、アカウント作成が求められますので、作成しましょう。Googleでのログインも可能です。
次に、もう一度バーに文字を入力すると、結果が出力されます。
この時点ではまだLlamaを使ったチャットではないため、右上の「USE FULL CHAT」をクリックしましょう。
ここで、Llamaの各モデルを選択できます。前述したLlama3.2のトークン数別の4つのモデルも選択可能です。
モデルを選択したら、実際にプロンプト(指示文)を入力しましょう。
Groqを使ったこの方法であれば、エンジニアでなくてもお手軽にLlamaを試すことができます。
Perplexity AIで利用する方法(非エンジニアでも可能)
Perplexity AIは、ブラウザ上で機能する生成AIを使用したチャット型の検索エンジンです。こちらも、Llama 3.2を試すことができます。
https://labs.perplexity.ai/にアクセスします。perplexityのトップページではなく、labsというサブドメインのページです。こちらであれば、アカウントの登録は不要でLlamaを使用可能です。
右下のモデル選択からllamaの各モデルを選択します。2024年11月現在、最新の3.2は使用できず、3.1までが使用できるようです。
他の生成AIサービスと同様に、プロンプト(指示文)を入力すると回答が出力されます。
ブラウザ上で動作するため、特別な環境構築は不要です。とはいっても、あくまで「お試し」感が強い使い方のため、簡単に試してみたい方に向いている使い方です。
Groqにせよ、Perplexity AIにせよ、あくまでテキストベースでLlamaを使用できるに留まり、画像認識機能や高度なデータ分析のためにデータを読み込ませる、といったことはできません。そのため、Llamaを本格的に使用するには、環境構築やAPI利用など、エンジニアの力が必要といえるでしょう。
ビジネスパーソンや個人的な利用を考えている人は、Chat-GPTやClaudeなどの生成AIが向いているかもしれません。
OpenAI o1(Chat-GPT o1)とは?最新モデルの特徴や使い方を説明
X(旧Twitter)の生成AI「Grok」とは?ユーモア溢れる使い方を紹介!
まとめ:Llamaは商用利用可能でエンジニア向けのAI
Llama3.2は、強力な自然言語処理能力や画像認識機能を備えた生成AIです。商用利用や多様な環境での活用が可能ですが、Chat-GPTやClaudeと異なり、エンジニアリングスキルが求められるため、特定のユーザー層向けといえます。
ブラウザで簡単に試したい方にはPerplexity AIやGroq、技術的な導入を検討している方にはHugging Faceなどを活用するのがおすすめです。