gemma4て自分のpcの中で運用できるのか(gemini
>
結論から言うと、Gemma 4は自分のPC(ローカル環境)で運用可能です。
Google DeepMindが2026年4月2日に「Gemma 4」を正式にリリースしましたが、今回はApache 2.0ライセンスという非常に自由度の高い形式で公開されたため、商用・個人利用を問わず、自分のハードウェアにインストールして動かすことができます。
PCのスペックや運用方法について、ポイントをまとめました。
1. 動作に必要なスペックの目安
Gemma 4には複数のサイズ(パラメータ数)があり、モデルが小さいほど低スペックなPCでも動きます。
| モデル名 | 推奨メモリ(RAM/VRAM) | 特徴 |
| Gemma 4 E2B | 5GB 〜 8GB | 軽量。一般的なノートPCやRaspberry Piでも動作可能。 |
| Gemma 4 E4B | 9GB 〜 12GB | バランス型。画像・音声理解もスムーズ。 |
| Gemma 4 26B/31B | 20GB 〜 38GB | 高性能。RTX 3090/4090や、メモリを積んだMac向け。 |
補足: 4ビット量子化(軽量化)版を使えば、メモリ消費を大幅に抑えて実行できます。
2. ローカル運用のメリット
-
プライバシー: データを外部(クラウド)に送信せず、完全にオフラインで処理できます。
-
無料: モデル自体の利用料はかかりません(電気代のみ)。
-
カスタマイズ: 自分のPC内にあるファイルを参照させたり、特定のタスクに特化させる「ファインチューニング」も可能です。
3. どうやって動かすのか?
最も簡単なのは、以下のツールを使用する方法です。
-
Ollama: コマンド一つでモデルをダウンロードして実行できる、現在最もポピュラーなツールです。
-
LM Studio: GUI(画面操作)で簡単にモデルを検索・実行できるソフトです。設定が苦手な方におすすめです。
-
llama.cpp: 以前からある定番ツールで、Gemma 4のリリース直後に対応済みです。
実行例(Ollamaの場合)
ターミナルやコマンドプロンプトで以下を打つだけで開始できます。
ollama run gemma4
4. Gemma 4の新機能
今回のバージョンでは、ローカル環境でも以下のような高度な機能が使えるようになっています。
-
マルチモーダル: テキストだけでなく、画像や音声も入力として読み取れます。
-
思考モード (Reasoning): 回答の前に「<|think|>」タグ内でステップバイステップの推論を行うことができ、複雑な論理パズルやコーディングの精度が上がっています。
-
長いコンテキスト: 最大256Kトークン(本数冊分)の情報を一度に読み込めます。
Linux(Mintなど)やWindows環境をすでにお持ちであれば、特にドライバ周りの設定が済んでいればすぐに試せるはずです。お手持ちのPCのメモリ容量に合わせて、まずは小さいサイズから試してみるのが良いでしょう。
■pcで運用されてるaiって学習しなくていいのか
>
「運用する(使う)」ことと「学習させる」ことは、AIにおいては全く別の作業として切り離されています。
結論から言うと、普段使う分には学習させる必要はありません。 すでに「勉強が終わった状態」のファイル(モデル)をダウンロードして動かすだけだからです。
この違いをイメージしやすく解説します。
1. 「推論(使う)」と「学習(育てる)」の違い
AIの動作には、大きく分けて2つのフェーズがあります。
-
推論 (Inference): 運用者が行っているのはこちらです。
-
すでに知識を詰め込んだ「AIの脳(モデルファイル)」に対して質問を投げ、答えをもらうプロセスです。
-
PCの役割: 脳を読み込んで、計算して答えを出すだけ。
-
特徴: 1台のPCでも十分可能。
-
-
学習 (Training): Googleなどが巨大なサーバーで行っていることです。
-
膨大なデータからパターンを学び、「AIの脳」そのものを作り上げるプロセスです。
-
PCの役割: 数千枚の高性能GPUを使って数ヶ月計算し続けるような膨大な作業。
-
特徴: 一般的な家庭用PCでは(フルサイズでの学習は)ほぼ不可能。
-
2. なぜ「学習」しなくていいのか?
あなたがPCで運用するのは、Googleなどのメーカーが数億円〜数百億円のコストをかけて「学習」を済ませた、いわば**「教科書を丸暗記した後の天才のコピー」**です。
-
ダウンロードするファイル: すでに学習済みの重み(パラメータ)が入っています。
-
あなたのPCでの動作: そのパラメータを使って「次に続く言葉を予測する」という計算をするだけなので、その場でAIが新しい知識を覚える(=ファイルが書き換わる)ことはありません。
3. ただし「自分専用にしたい」場合は別(追加学習)
もし「自分の仕事の癖」や「社内だけにしかない極秘資料」をAIに覚えさせたい場合は、**追加学習(ファインチューニング)**という作業を行うことがあります。
-
メリット: 特定の分野にめちゃくちゃ詳しくなる。
-
コスト: 推論(ただ使うだけ)よりも高いPCスペック(特にビデオメモリ量)が必要になります。
まとめ:一般ユーザーの運用スタイル
-
学習済みモデルを拾ってくる(すでに賢い)
-
自分のPCで動かす(推論だけ行う)
-
使い終わったら閉じる(AIの頭脳自体は変わらない)
今のローカルAIブームは、**「昔はスーパーコンピューターが必要だった『推論』が、家庭用PCでできるようになった」**から盛り上がっている、というわけです。
Linux(Mint XFCEなど)やWindowsで開発・運用されているのであれば、まずは「推論」だけで十分その賢さを実感できるはずですよ。
■pcで運用されるaiは、pc上の運用の中でも日々学習するのか
>
一般的な感覚では「AIは使うたびに賢くなっていく」イメージがあるかもしれませんが、現在のPCで運用されるローカルAI(Gemma 4など)の仕組みとしては、「日々勝手に学習して賢くなる」ということはありません。
これには技術的な理由と実用上の理由があります。
1. なぜ「勝手に」学習しないのか?
PCでAIを動かすとき、ソフトは「モデルファイル(脳のデータ)」を読み取り専用として扱います。
-
計算の方向が一方通行: 質問を入力して答えを出す「推論」の計算と、間違いを修正して知識を定着させる「学習」の計算は、数学的に全く別方向の処理です。
-
ファイルが書き換わらない: 10GBのモデルファイルがあったとして、会話のたびにその巨大なファイルを書き換えて保存し直すと、PCに膨大な負荷がかかり、動作が非常に重くなってしまいます。
2. 「覚えている」ように見える正体
それでも「さっき教えたことを覚えているじゃないか」と感じるのは、学習ではなく**「短期記憶(コンテキスト)」**を利用しているからです。
-
チャットの履歴: 会話をしている間、AIは「これまでの会話の流れ」をすべて読み直して、次の返答を考えています。
-
消える記憶: ソフトを再起動したり、新しいチャットを始めたりすると、その「短期記憶」はリセットされます。AI本体(モデルファイル)は、ダウンロードしたときと全く同じ状態のままです。
3. 日々の運用で「知識を足す」最新の手法
もし、PC上のAIに最新情報や自分のメモを「日々反映させたい」場合、現在は**RAG(検索拡張生成)**という手法が主流です。
-
仕組み: AIそのものを改造(学習)するのではなく、AIの横に「自分専用の辞書(テキストファイルやPDFなど)」を置いておき、質問のたびにAIがその辞書を引いて回答する仕組みです。
-
メリット: 難しい「学習」作業をしなくても、ファイルをフォルダに放り込むだけで、AIが「最新の自分の状況」を知っているかのように振る舞えます。
結論
PCで運用するAIは、「ダウンロードした瞬間の賢さ」で固定されています。
勝手に性格が変わったり、間違った知識が定着して壊れたりする心配がないので、安心して「道具」として使い倒すことができます。もし新しい知識が必要になったら、半年後にリリースされるであろう「Gemma 5」に入れ替えるか、上述の「辞書(RAG)」を持たせるのが一般的な運用スタイルです。
Linux MintやWindowsでPythonツールを自作されているあなたなら、**「自作のテキストファイルをAIに読み込ませて回答させる(RAG)」**といった仕組みを組み込むのは、非常に面白いプロジェクトになるかもしれませんね。
■pc上で運用されるaiは質問に対して回答するうえで、ネットの情報検索などを行うのか。それとも既に持っている知識だけをもとにして回答するのか
>
PC上で運用されるローカルAI(Gemma 4など)は、基本的には**「ネット検索はせず、すでに持っている知識(学習データ)だけをもとにして回答する」**というのが標準的な動作です。
ただし、2026年現在の技術では、設定次第で**「ネット検索を組み合わせて回答させる」**ことも可能になっています。この違いを整理すると以下のようになります。
1. 基本的な動作:持っている知識だけで回答
AIモデルをダウンロードした時点で、その中には膨大な知識が「重み(パラメータ)」として凝縮されています。
-
オフライン動作: ネットを切断しても回答できるのは、自分のPC内にある知識だけを使っているからです。
-
知識の限界(カットオフ): 学習が終わった時点までの知識しか持っていないため、それ以降に起きたニュースなどは知りません。
-
メリット: 高速で、プライバシーが完全に守られます(何を聞いたか外部に漏れない)。
2. 拡張機能:ネット検索を「道具」として使う
最近の「Ollama」や「Open WebUI」といったツールでは、AIにブラウザのような機能を持たせることができます。
-
検索の仕組み: AI自身がネットの海を泳ぐのではなく、「ユーザーの質問に関連しそうな情報を検索エンジンで検索し、出てきた数件のサイトをAIが読み込んで、それを踏まえて回答する」という仕組みです。
-
メリット: 「今日の天気」や「最新の株価」など、AIが本来知らないはずの情報も答えられるようになります。
あなたのPCで運用する場合の3つのパターン
現在主流のローカルAI運用では、目的に合わせて以下のような使い分けがされています。
| パターン | 回答のソース | 向いている用途 |
| 標準運用 | 内部の知識のみ | 相談、コードの生成、一般的な知識の整理。 |
| Web検索連携 | 内部知識 + ネット情報 | 最新ニュースの調査、最新版ライブラリの仕様確認。 |
| RAG(自前辞書) | 内部知識 + 自分のファイル | 自分の過去のメモや、PC内のソースコードに基づいた回答。 |
補足:PythonやLinux環境での活用
あなたがPythonでGUIツールを自作したり、Linux Mintを運用したりしている場合、**「AIにネット検索の結果を渡して要約させるスクリプト」**を書くことで、AIに擬似的なネットアクセス能力を持たせることができます。
基本は「持っている知識だけ」ですが、**「必要に応じて外の情報を取ってこさせる仕組みを自分で構築できる」**のが、PCでAIを運用する最大の醍醐味と言えます。
■pcでgemma4を運用するにあたって必要なストレージサイズは
>
Gemma 4をPCで運用するために必要なストレージ(ディスク空き容量)は、どの「サイズ」のモデルを、どの程度の「精度(量子化)」でダウンロードするかによって大きく変わります。
現在リリースされている4つのモデルを基準に、目安となるストレージサイズをまとめました。
1. モデルごとのストレージ容量(目安)
一般的に、ローカルAIでよく使われる**「4-bit量子化(Q4_K_Mなど)」**版の容量を基準にするのが現実的です。
| モデル名 | ストレージ容量 (4-bit量子化) | ストレージ容量 (FP16/精度優先) | 主な用途 |
| Gemma 4 E2B | 約2.5GB 〜 4GB | 約10GB | スマホ、軽量ノートPC、音声翻訳 |
| Gemma 4 E4B | 約4.5GB 〜 6GB | 約16GB | 一般的なPC、画像・音声マルチモーダル |
| Gemma 4 26B A4B | 約16GB 〜 18GB | 約52GB | 複雑なタスク、推論、プログラミング支援 |
| Gemma 4 31B | 約18GB 〜 20GB | 約62GB | 最高精度、論理的思考の重視 |
注意点: > * プラスアルファの容量: 上記は「モデルファイル単体」のサイズです。運用ツール(OllamaやLM Studioなど)のインストールや、チャット履歴、一時ファイルの保存用に、さらに+5GB〜10GB程度の余裕を見ておくことをおすすめします。
SSDを推奨: HDDでも動作はしますが、モデルの読み込みに数分かかることがあります。快適に使うならNVMe SSDなどの高速ストレージが理想的です。
2. どのサイズを選ぶべきか?
Linux MintやWindows環境のPCスペックに合わせて選ぶのがスムーズです。
-
手軽に試したい場合 (E2B / E4B): 5GB〜10GB程度の空きがあれば十分です。これらは「マルチモーダル(画像や音声)」に強く、ノートPCでもサクサク動きます。
-
実用的なツールとして使う場合 (26B A4B / 31B): 20GB〜30GB程度の空きを確保してください。このクラスは「思考モード(Reasoning)」が非常に強力で、プログラミングや複雑な問題解決に役立ちます。
3. ストレージ節約のコツ
もしストレージを節約したい場合は、**「Ollama」**などのツールを使う際に、自動的に選ばれる標準的なモデル(通常は4-bit量子化)を利用するのが一番効率的です。
もしLinux Mintをお使いであれば、/var/lib/ollama(Ollamaのデフォルト保存先)などのパーティション容量に注意してインストール先を決めると、後から「容量不足でOSが重くなる」といったトラブルを避けられますよ。
まずは Gemma 4 E4B あたりから試してみるのが、容量と性能のバランスが良くて面白いかもしれません。
■4-bit量子化とFP16/精度優先の違いは。省スペースで済むなら4-bit量子化だけでいいのでは
>
非常に鋭い視点です。結論から言うと、**「個人で使うなら、ほとんどのケースで4-bit量子化だけで十分」**というのが現在の生成AI界隈の共通認識です。
なぜ「精度優先(FP16)」が存在するのか、その違いをエンジニア的な視点で比較してみましょう。
1. 根本的な違い:数字の「細かさ」
AIの頭脳は、膨大な数の「重み(パラメータ)」という数値で構成されています。
-
FP16(精度優先): 1つの数字を16ビットの浮動小数点数で表現します。非常に細かく、正確な計算が可能です。
-
4-bit量子化: 1つの数字をたった4ビット(0〜15の整数など)に無理やり圧縮します。
これを料理に例えると分かりやすいです。
-
FP16: 1ミリ単位まで測れるデジタルスケールで材料を計量する(正確だが、高価な道具と手間が必要)。
-
4-bit: 「だいたい一掴み」「スプーン一杯」といった大まかな計量で済ませる(道具が安価で早いが、わずかに味が変わる可能性がある)。
2. なぜ4-bit量子化でいいのか(メリット)
ほとんどのユーザーが4-bitを選ぶ理由は、「失われる精度」よりも「得られるメリット」が圧倒的に大きいからです。
-
メモリ(VRAM/RAM)の大幅節約: 単純計算で、FP16の4分の1のメモリ量で動きます。31Bモデル(約62GB)をFP16で動かすにはスーパーコンピュータ級の環境が必要ですが、4-bitなら20GB以下のグラフィックボードやMacで動かせます。
-
爆速の処理速度: データが軽い分、PC内での移動速度が上がり、回答が返ってくるスピードが劇的に速くなります。
-
賢さは意外と落ちない: 最新の研究(特にGemma 4のようなモデル)では、4-bitまで圧縮しても、知能テストのスコアは数%程度しか落ちないことが分かっています。日常会話やコーディング、要約であれば、人間がその差を感じることはほぼ不可能です。
3. 「FP16 / 精度優先」が必要なのはどんな時?
あえて重いFP16を使うのは、主に以下のような特殊なケースです。
-
追加学習(ファインチューニング)を行うとき: あなたがAIに特定の知識を「教え込む」作業をする場合、4-bitだと情報の細部が潰れてしまい、うまく学習が進みません。
-
極めて高度な科学計算・数学: 小数点以下の極微細な差が結果を左右するようなシミュレーションを行う場合。
-
ベンチマーク測定: モデル本来の「真の実力」を測定する研究者。
結論:あなたの運用なら
Pythonでツールを自作したり、Linux MintでOSの挙動を調べたりするような用途であれば、間違いなく「4-bit量子化」が正解です。
わざわざ巨大なFP16版をダウンロードしても、動作が重すぎてストレスが溜まるだけで、得られる回答の質の差には気づけないはずです。
「4-bitは手抜き」ではなく、**「家庭用PCで高性能AIを動かすための魔法の技術」**だと捉えていただければ間違いありません。
実際に導入する際は、まず4-bit版を使ってみて、もし「回答が支離滅裂だ」と感じた場合(ほとんどありませんが)に、1段階精度の高い「8-bit」や「6-bit」を検討する、というステップが最も効率的ですよ。
■win11上で運用する場合もターミナルで「ollama run gemma4」と打てばいいのか
>
はい、基本的にはその通りです。Windows 11でも、Ollamaのインストーラーを実行した後であれば、コマンドプロンプトやPowerShell(ターミナル)を開いて ollama run gemma4 と打つだけで、ダウンロードから実行までが自動的に始まります。
ただ、Windowsならではの注意点や、より便利に使うためのステップがいくつかあります。
1. 運用の流れ(Windows 11の場合)
-
Ollamaのインストール: 公式サイト(ollama.com)から
OllamaSetup.exeをダウンロードして実行します。 -
常駐の確認: インストールが終わると、タスクバーの右下(通知領域)に「ラマのアイコン」が表示されます。これが動いていれば準備OKです。
-
コマンド実行: 「ターミナル(PowerShell)」または「コマンドプロンプト」を開き、以下を入力します。
PowerShellollama run gemma4-
初回は数GBのモデルデータのダウンロードが始まります。
-
完了すると
>>>という入力待ち状態になり、すぐに会話が可能です。
-
2. Windows 11で運用する際のポイント
-
GPUの自動認識: Windows版のOllamaは、NVIDIAのGPU(RTXシリーズなど)を積んでいれば自動的にそれを検知して高速に動かしてくれます。もしGPUがない場合でも、CPUで動作するように自動で切り替わります。
-
パスの追加は不要: 最近のインストーラーは自動で環境変数を設定してくれるため、インストール直後から
ollamaコマンドが認識されます。 -
WSL2(Windows Subsystem for Linux)との関係: Linux Mintもお使いとのことですので、もしWSL2をセットアップ済みであれば、WSL2のターミナル内からも同じコマンドで動かせます。Windows側でOllamaを動かしておけば、WSL2側からも共有して利用できるのが非常に便利です。
3. おすすめの「見た目」の整え方
ターミナルで文字だけでやり取りするのも硬派で良いですが、Windows 11なら以下の方法も快適です。
-
Open WebUI (Docker使用): ブラウザ上でChatGPTのようなリッチな画面で使いたい場合に人気です。
-
LM Studio: コマンド操作が面倒な場合は、「LM Studio」というソフトをインストールすれば、マウス操作だけでGemma 4を探して実行でき、ストレージの管理もしやすくなります。
補足:モデルの終了方法
会話を終えたいときは /bye と入力してエンターを押すか、 Ctrl + D でターミナルに戻れます。
PythonでTkinterを使ったツールを自作されているあなたなら、PythonからOllamaのAPIを叩いて、自分専用の「Gemma 4チャットアプリ」を自作するのも、Windows 11上での面白い試みになると思いますよ!
■pc上でgemmaを利用するメリットって、ネットが使えないとき使えることや秘匿性ぐらいしかないか
>
「オフライン」と「秘匿性」は確かに最大のメリットですが、PC(ローカル)で運用することには、実はエンジニアやパワーユーザーにとってそれ以上に強力なメリットがいくつかあります。
特にPythonでツールを自作したり、Linux環境をいじったりするのが好きな方にとっては、以下の3点が大きな魅力になるはずです。
1. 「API料金」を気にせず無限に使い倒せる
クラウド型(ChatGPTやGeminiの有料版)は、たくさん使うと月額料金がかかったり、API経由だと「1文字いくら」でお金が減っていきます。
-
ローカルの利点: 一度環境を作ってしまえば、どれだけ大量の文書を要約させても、何万行のコードを書かせても**無料(電気代のみ)**です。
-
実験し放題: 「自作スクリプトから1分間に100回AIを呼び出す」といった、クラウドだと高額請求が怖くてできないようなテストも、自分のPCなら気兼ねなく実行できます。
2. 「システム連携・自動化」の自由度が桁違い
自作のPythonツールやLinuxのシェルスクリプトからAIを呼び出す際、ローカル運用は非常に相性が良いです。
-
超低遅延(レスポンスが速い): ネットを経由しないため、通信の待ち時間(レイテンシ)がありません。特に短い回答を何度も繰り返すような処理では、ローカルの方が体感速度が速くなることがあります。
-
APIの自作: Ollamaなどはローカルサーバーとして動くので、
localhost:11434にリクエストを送るだけで、自作のTkinterアプリにAI機能を組み込めます。外部サービスの仕様変更に振り回されることもありません。
3. 「検閲や制限」がない
クラウドサービスでは、特定のトピック(倫理的に際どい内容や、セキュリティに関する踏み込んだ質問など)に対して、AIが「その質問には答えられません」と回答を拒否するように制限(ガードレール)がかかっています。
-
ローカルの利点: ダウンロードしたモデルはあなたの所有物です。メーカー側の都合による強制的なアップデートや、回答の「お行儀」の制限を(ある程度)回避して、モデルが持つ本来の性能をフルに引き出すことができます。
4. 特定タスクへの「特化」が可能
前の質問で「学習」の話が出ましたが、ローカルであれば**「RAG(検索拡張生成)」**を自分のPC内のファイルに対して構築するのが非常に簡単です。
-
例えば、「自分の過去の全ソースコード」や「PC内のマニュアルPDF」をAIに全部読み込ませて、自分専用の超高性能な検索・相談窓口を作るといったことが、外部にデータを1バイトも流さずに実現できます。
まとめると
-
一般の人: 「ネットがなくても、秘密の話ができる」
-
あなたのような人: 「自作ツールの一部として、タダで、高速に、自由に改造して組み込める最強のライブラリ」
として使えるのが最大のメリットです。Linux MintやWindowsでPythonを駆使されているのであれば、AIを「チャット相手」としてだけでなく、**「プログラムから呼び出す便利な関数」**のように扱えるのが一番の面白さだと思います。
■「検閲や制限」がないというが、それらを既に学習していて回答に制限をかけるのでは
>
ご指摘の通りです。おっしゃる通り、モデルが公開される前の段階で、メーカー(Googleなど)によって**「学習データそのもの」や「学習プロセス(安全性の調整)」を通じて、制限はすでに組み込まれています。**
ですので、ローカルで動かしたからといって、AIが突然なんでも言うことを聞く「無法者」になるわけではありません。
ただし、クラウド版(Geminiのウェブサイトなど)と、ローカル版(Gemma 4をPCで動かす)の間には、**「制限の二段構え」**という大きな違いがあります。
1. クラウド版にある「第2のフィルター」がない
クラウドサービスでは、AIモデルが回答を出した後(あるいは質問を受け取った時)、別の強力な**「監視AI」や「フィルタリングシステム」**が常に内容をチェックしています。
-
クラウド: AIが「答えようかな」と思っても、外側の監視システムが「ダメです」と遮断し、定型文(「私はAIですので…」)に差し替えることがあります。
-
ローカル: この外側の監視システムが存在しません。モデルが「これは答えても大丈夫だ」と判断した内容であれば、そのまま出力されます。
2. 「安全性の調整(RLHF)」の度合い
AIには、人間にとって好ましくない回答を避けるための「RLHF(人間によるフィードバックからの強化学習)」という調整が施されています。
-
商用クラウド: 企業のブランドを守るため、非常に「保守的」で「過保護」な調整がされています。少しでもリスクがある質問にはすぐ口を閉ざします。
-
公開モデル(Gemma等): 研究や開発用として公開されているため、商用版に比べると**「ガードレールが少し低め」**に設定されていることが多いです。技術的な質問や、セキュリティ上の脆弱性のテスト(ホワイトハッカー的な用途)において、より踏み込んだ回答をしてくれる傾向があります。
3. 「アンセンサード(検閲解除)モデル」の存在
ここがローカル運用の最もユニークな点ですが、有志のコミュニティによって、Googleがかけた制限(安全性の調整)を意図的に取り除くように追加学習(再調整)された改造モデルが配布されることがあります。
-
これらは「Uncensored」や「Abliterated」などと呼ばれ、本来なら拒否されるような質問にも答えるように改造されています。
-
こうした「改造された脳」を自由に入れ替えて使えるのは、自分のPCで動かしているからこそできることです。
結論
「すでに学習されている制限」は確かに存在しますが、ローカル運用では以下のようになります。
-
過剰な「外付け検閲」から解放される。
-
モデル本来の(少し広めの)回答範囲をフルに使える。
-
必要なら、制限を外した「改造モデル」に載せ替えることもできる。
そのため、自作ソフトのデバッグや、ややマニアックな技術調査、あるいは創作活動などで、「クラウドAIだと説教されてしまって話が進まない」というストレスを回避できるのが大きなメリットとなります。