WebLLM(Wasm上で動くLLM)は何が凄い?3種のLLM実行環境を徹底比較〜ローカルブラウザ型、ローカルネイティブ型、クラウド型〜 近年、プライバシー確保の重要性が高まり、ローカル環境で動作するLLMへの需要が増加しています。その選択肢の一つとしてWebLLMが台頭してきました。 でも、プライバシー確保が目的ならOllamaでいいんじゃないの? この記事では、そんな疑問を深掘りしていきます! WebLLMとは WebLLMは、Webブラウザ上で直接LLMを実行できるJavaScriptライブラリです。利用可能なLLMモデルが複数用意されており、ユーザーが実行時に必要なモデルをダウンロードして利用する仕組みになっています。[1] 技術要素 WebLLMは以下の技術で支えられています。[1:1]: WebAssembly (Wasm): C/C++などで書かれたコードをブラウザ上で高速に

