Python

スポンサーリンク
AI

AI開発実践:API不要の完全ローカルRAG ── Ollama + ChromaDBで構築するAIアシスタント

「AIを作ってみたいけれど、クラウド接続や課金設定でつまずいてしまった…」 そんな経験はありませんか? 2026年、AI開発のトレンドは「クラウド依存」から、プライバシーと自由度を両立した「完全ローカル完結型」が注目を集めつつあります。 シリーズ第3回となる今回は、外部APIを一切使わない、自分だけの「ローカルRAG」を構築します。 前回のChromaDB(記憶)に、強力なローカルLLM実行エンジン「Ollama(知能)」を合体。 あなたのPC内で全てが完結するため、機密情報の流出を恐れる必要も、利用制限に悩まされることもありません。 Anaconda環境を整え、「最強のプライベートAIアシスタント」への第一歩を踏み出しましょう。
AI

AI開発実践:ベクトルデータベースと埋め込み(Embedding)の実践 ── 記憶の仕組みをローカルに構築する

前回の記事では、現代AIの心臓部である「トランスフォーマー」の仕組みと、個人開発における現実的な戦略についてお話ししました。 LLMという巨大な知能を、いかにしてコストを抑えつつ「自分専用」に育て上げるか。 その答えが、今回から始まる「外部記憶」の実装です。 どれほど賢いAIであっても、学習データに含まれていない最新の攻略情報や、あなただけが持つプライベートな知識をそのまま語ることはできません。 そこで必要になるのが、AIがいつでも参照できる「教科書」を、あなたのPCの中に構築することです。 「データベースなんて、設定が難しそうだし、高価なサーバーが必要なのでは?」 そのように思われる読者にとって、今回の内容は驚きの連続になるかもしれません。 今回私たちが手にするのは、Pythonライブラリを一つ導入するだけで構築できる、軽量かつ強力な「ベクトルデータベース(ChromaDB)」です。 本記事では、言葉を「数値」に変換し、AIが意味を理解して情報を探し出す「埋め込み(Embedding)」のマジックを、あなたのローカルPC環境で実際に動かしながら学んでいきます。
AI

AI開発実践:個人で挑むLLM開発 ── トランスフォーマー基礎と無理のない環境選び

これまでの「AI開発入門」シリーズでは、ランダムフォレストなどの伝統的な機械学習を用い、AI開発の「作法」とも言える評価基盤やデータ設計を学んできました。 しかし、現代のAI、特に「ゲームの攻略情報を教えてくれるAI」や「自然な対話ができるAI」を実現するためには、もう一段高いステージへ進む必要があります。 それが、ディープラーニング(深層学習)、そしてその中核技術である「トランスフォーマー(Transformer)」の世界です。 「LLM(大規模言語モデル)の開発なんて、個人や小規模なチームでは無理なのでは?」 「GPUという高価な機材が必要で、コストが凄まじいのでは?」 そんな不安を感じる方も多いでしょう。しかし、本シリーズで目指すのは、「個人の手の届く範囲で、最大限の効果を発揮するAI開発」です。
Python

【確率・統計 完結】正規分布:カオスの中に潜む「神曲(神の曲線)」をPythonで描く

【確率・統計シリーズの完結記事】確率の迷宮を抜け、ついに「神の曲線」正規分布へ。サイコロ1万回のシミュレーションを通じ、バラバラな偶然が美しい調和へと至る「中心極限定理」をPythonで可視化します。母平均と標準偏差が描く至高の曲線をその目に焼き付け、統計学というレンズで未来を予測する力を手に入れましょう。
Python

【架け橋】大数の法則:「偶然」が「必然」に変わるとき

「確率の収束」を感覚から論理へ。サイコロのシミュレーションを通じ、大数の法則と標準誤差(SE)の関係をPythonで可視化します。「精度を2倍にするには4倍のデータが必要」というルートnの法則を解き明かし、目標精度から必要な試行回数を逆算する、実務に役立つ「未来の推測」を学びましょう。
Python

【統計②】Pythonで作りながら理解する分散と標準偏差の数値化

「平均利回り5%の投資信託AとB。あなたなら、どちらに資産を預けますか?」 そう聞かれたら、多くの人は「平均が同じなら、どちらでも結果は同じでは?」と答えるかもしれません。 しかし、もしAが「毎日0.1%ずつ着実に増える商品」で、Bが「ある日は+10%だが、翌日は-5%と激しく上下する商品」だとしたらどうでしょう。 たとえ1ヶ月後の平均利回りが同じ5%に落ち着いたとしても、その運用の中身は全く別物です。 Bのような激しい値動きは、売却のタイミング一つで大きな損失を出す不確実性を孕んでおり、投資家にとっては無視できない「危うさ(=リスク)」となります。 前回の記事では、データの中心を示す「代表値」を学びました。 平均・中央・最頻値を使い分ければ、データの「真ん中」を正しく射抜くことができます。 しかし、今回の投資信託の例のように、代表値が同じであっても、データの「ふり幅(バラつき)」によってその性質は決定的に異なるのです。 この「手元の数値が、平均からどれくらい離れてふらついているか」という不確実性を客観的な数字にしたものが、今回のテーマである「分散」と「標準偏差」です。 どれほど代表値が立派でも、バラつきの正体を掴めていなければ、そのデータは「制御不能」なままです。 今回はPythonを使い、曖昧なバラつきを明確な指標へと変換するプロセスを体験します。
Python

【統計①】平均だけでは不十分?Python、中央値・最頻値のコラボでデータの特徴を「見える化」

「平均点くらいだったから、まあ普通かな」 このように私たちは「平均」という言葉を、その集団の「普通」や「真ん中」を指すものとして日常的に使っています。 しかし、前回の記事で学んだ「期待値(平均報酬)」は、あくまで「膨大な試行を繰り返した時の理論的な境界線」でした。 現実の世界に存在する、回数が限られたデータ群を分析する場合、平均値だけを見ていると、とんでもない見当違いをしてしまう場合があります。 今回は、Pythonのライブラリ「Pandas」を使い、平均・中央値・最頻値という3つの指標をコラボレーションさせることで、裏側に隠されたデータの特徴を浮き彫りにする方法を学びます。
Python

【確率③】期待値は「未来の平均値」。投資とギャンブルの境界線をシミュレート

「宝くじを買うのは無駄だ」と言う人もいれば、「投資もギャンブルと同じようなものだ」と言う人もいます。これらは単なる個人の感想なのでしょうか? いいえ、数学の世界には、その境界線を鮮やかに描き出す「期待値」という明確な基準が存在します。 前回の記事では、Pythonを使って「確率は試行回数を増やすほど理論値に収束する」ことを確かめました。今回はその知識をさらに一歩進め、「その勝負、結局のところ得なのか、損なのか」という、私たちのサイフに直結する問題を解き明かしていきます。 期待値を理解し、シミュレーションできると、目の前の「チャンス」が「着実な投資」なのか「無謀なギャンブル」なのかが、数字として見えるようになります。 確率とプログラミングの力で、感情や運に左右されない「意思決定の羅針盤」を手に入れましょう。
Python

【確率②】理論値と実践値の交差点:Pythonで捉える「確率収束の瞬間」

前回の記事では、Pythonを使って「全事象」を漏れなく書き出し、理論上の確率を計算する方法を学びました。 しかし、現実の世界は、複雑で全パターンを数え上げるなど不可能な事象に満ち溢あふれています。 そこで登場するのが「シミュレーション」です。 「計算で答えを出す」のではなく、「コンピューターの中で実際に何万回も試してみる」。 一見、泥臭い力技に聞こえる手法ですが、現代のAIやデータ分析を支える強力な武器となるのです。 今回の記事では、サイコロ振りを題材にPythonで実験を行い、「理論上の確率(理論値)」と「実験から得られた確率(実践値)」がどのように出会い、重なっていくのかを体験します。 理論と実験の交差点を通り過ぎた先で、「確率が収束する瞬間」を目にすることになるでしょう。
Python

【確率①】まずは「数え上げ」から!樹形図で全パターンを網羅する

「確率」の仕組みはシンプルです。 確率を平たく言えば、「起こりうるすべてのパターンのうち、知りたい結果がどれくらい含まれているか」を比べる作業にすぎません。 たとえば、コインを2回投げたときに「表が2回出る確率」を知りたいとしましょう。 その場合、まずは「表・表」「表・裏」「裏・表」「裏・裏」という全パターンが4通りだと把握することから始まります。 この「全パターン」のことを、数学では全事象ぜんじしょうと呼びます。 つまり、全部で何通りあるのかを「正しく数える」ことができれば、確率は解けたも同然なのです。 しかし、パターンの数が10通り、20通りと増えていくと、頭の中だけで数えるのは限界がきます。 そこで、人間の代わりに正確に、かつ一瞬で数え上げてくれる強力な道具が、今回から登場する「Python」というプログラミング言語です。 まずは、頭の中を整理するための「樹形図」の考え方を学び、次に「数え上げ」という根気のいる作業をコンピュータに任せる方法を見ていきましょう。
スポンサーリンク