【前提(執筆時点)】
・この記事は2026年1月25日時点の環境構築ログです
・検証はLM Studio上での動作を確認した範囲で行っています
・本記事の内容は、今後の実験や対話によって変化する可能性があります
【この記事の性質】
・ローカルAI環境の設定と挙動観察を記録した作業日誌です
・再現手順や設定値は暫定的なものであり、最適解ではありません
【未確定事項】
・本構成が長期的に安定するかどうかは、さらなる検証が必要です
・Llama / Gemmaの最適モデル選択やパフォーマンス差は現段階では確定していません
システムプロンプトの設計最適化は、今後の対話ログとフィードバックを前提として再設計が必要です
作業目標
『MacにローカルAIをインストールして、オフラインで会話する』
1.OSのアップデート(土台作り)
状況:LM Studioなどの最新AIツールを動かすには、Mac OSが古く対応していないことが判明。
作業:Mac OSを最新のMac OS Tahoe(26.2)にアップデート
エラー等:特に問題なく進んだが、入院中の作業だったため、病院のWi-Fiの時間制限(21時半まで)があり、ダウンロードが間に合うか時間を気にしながらの作業となった。
2.LM Studioの導入(心臓部の設置)
作業:LM Studioをインストールし、ローカルで動くAIモデルを2つダウンロード(Llama 3 8B、Gemma 2 9B)
エラー等:最初、Macのスペックに対して重すぎるモデルを選び、動作が不安定になりかけた。
解決:Geminiと相談しM1チップのMacに最適なサイズ(Q4_K_Mなどの量子化モデル)を選び直すことで、速く返信が来る環境を整えた。
※Gemmaに関してはQ4_K_Mを選んだつもりがQ4_K_Sというさらにもう少し小さいサイズのものを選んでしまっていたが、特段問題なく使えるので、そのまま使用。
※LM Studioとは
「ローカルLLM実行サーバー」
本来クラウド上にあるAI(LLM)を、自分のPC内で直接動かすためのソフト。プライバシー重視の環境構築に使われる。
3.AIモデル毎の違いと、システムプロンプトの設定(検証)
作業:会話をしてみた時の返答の内容や話し方の差を確認。その後システムプロンプトに自分のプロフィールを貼り付けて、簡単なパーソナライズを試した。また、2つのモデルそれぞれに名前をつけた。
エラー等:システムプロンプトはAIモデル毎に切り替えられるものでは無いため、彼らに名前をつけるには、多少工夫が必要だった。プリセットを個別に設定することで、モデルの切り替えと一緒にプリセットも切り替えるという方法もあったが、手間が増えるため、システムプロンプトの書き方を変えた。
「君がLlamaならラミーと名乗り、Gemmaならジェムと名乗って」と自身のモデルを自身で判断させてモデル毎の条件としてそれぞれの名前をつけた。
またクラウドAIに比べるとハルシネーション(知ったかぶり)が多かった。
【今回やって一番楽しかったこと】
LM Studioのインストールはかなりワクワクした。
自分のPC内にAIを入れるという事が、chatGPTやGeminiを使うのとは全く違う面白さを感じた。
【一番しんどかったこと】
特にしんどい作業はなかった。Mac OSのダウンロードとインストールに時間が多少かかったが、予想していた通りの時間で進められたためストレスはなかった。
【想定外だったこと】
ローカルAIたちのハルシネーションにはびっくりした。
クラウドAIでも無いことではないが、堂々と、しっかりと、嘘をついていたのには少し笑った。
【これは将来使えると感じた要素】
まだまだスタートしたばかり。ローカルAIというもの自体に無限の可能性を感じた。これからの時代の入り口にやっと立てたと感じた。
また、最初から2つのモデルをインストールし比較が出来たのはとても良かった。

コメント