はてなブックマークアプリ

サクサク読めて、
アプリ限定の機能も多数!

アプリで開く

はてなブックマーク

  • はてなブックマークって?
  • アプリ・拡張の紹介
  • ユーザー登録
  • ログイン
  • Hatena

はてなブックマーク

トップへ戻る

  • 総合
    • 人気
    • 新着
    • IT
    • 最新ガジェット
    • 自然科学
    • 経済・金融
    • おもしろ
    • マンガ
    • ゲーム
    • はてなブログ(総合)
  • 一般
    • 人気
    • 新着
    • 社会ニュース
    • 地域
    • 国際
    • 天気
    • グルメ
    • 映画・音楽
    • スポーツ
    • はてな匿名ダイアリー
    • はてなブログ(一般)
  • 世の中
    • 人気
    • 新着
    • 新型コロナウイルス
    • 働き方
    • 生き方
    • 地域
    • 医療・ヘルス
    • 教育
    • はてな匿名ダイアリー
    • はてなブログ(世の中)
  • 政治と経済
    • 人気
    • 新着
    • 政治
    • 経済・金融
    • 企業
    • 仕事・就職
    • マーケット
    • 国際
    • はてなブログ(政治と経済)
  • 暮らし
    • 人気
    • 新着
    • カルチャー・ライフスタイル
    • ファッション
    • 運動・エクササイズ
    • 結婚・子育て
    • 住まい
    • グルメ
    • 相続
    • はてなブログ(暮らし)
    • 掃除・整理整頓
    • 雑貨
    • 買ってよかったもの
    • 旅行
    • アウトドア
    • 趣味
  • 学び
    • 人気
    • 新着
    • 人文科学
    • 社会科学
    • 自然科学
    • 語学
    • ビジネス・経営学
    • デザイン
    • 法律
    • 本・書評
    • 将棋・囲碁
    • はてなブログ(学び)
  • テクノロジー
    • 人気
    • 新着
    • IT
    • セキュリティ技術
    • はてなブログ(テクノロジー)
    • AI・機械学習
    • プログラミング
    • エンジニア
  • おもしろ
    • 人気
    • 新着
    • まとめ
    • ネタ
    • おもしろ
    • これはすごい
    • かわいい
    • 雑学
    • 癒やし
    • はてなブログ(おもしろ)
  • エンタメ
    • 人気
    • 新着
    • スポーツ
    • 映画
    • 音楽
    • アイドル
    • 芸能
    • お笑い
    • サッカー
    • 話題の動画
    • はてなブログ(エンタメ)
  • アニメとゲーム
    • 人気
    • 新着
    • マンガ
    • Webマンガ
    • ゲーム
    • 任天堂
    • PlayStation
    • アニメ
    • バーチャルYouTuber
    • オタクカルチャー
    • はてなブログ(アニメとゲーム)
    • はてなブログ(ゲーム)
  • おすすめ

    ChatGPT

『zenn.dev』

  • 人気
  • 新着
  • すべて
  • フォワードデプロイドエンジニア(FDE)とは何か

    54 users

    zenn.dev/hellorusk

    フォワードデプロイドエンジニアとは? フォワードデプロイドエンジニア(Forward Deployed Engineer、FDE)は、顧客と直接連携し、既存のソフトウェアプラットフォームを顧客固有の複雑な課題解決のために設定、カスタマイズ、展開するソフトウェアエンジニアの職種です。 フォワードデプロイドエンジニアの役割・仕事内容 1. 顧客との直接的な連携 顧客のチームに直接組み込まれ、彼ら彼女らのニーズや課題を深く理解します。 (例) Palantir の FDE は、米国国防総省の顧客と協力してデータ統合ソリューションを提供しています。 Toma の FDE は、顧客と話し、サードパーティのプラットフォームとの統合を構築し、カスタムのユースケースを設計する経験が求められます。 2. ソリューションの設計と実装 お客様の具体的なニーズに対応するため、既存のプラットフォームを設定したり、新

    • テクノロジー
    • 2025/07/22 23:20
    • エンジニア
    • あとで読む
    • 開発
    • §2 Ollamaの導入|Ollamaで体験する国産LLM入門

      4 users

      zenn.dev/hellorusk

      • テクノロジー
      • 2025/01/30 21:06
      • §1.1 LLMにまつわるツール群: Hugging Face, llama.cpp, Ollama

        5 users

        zenn.dev/hellorusk

        • テクノロジー
        • 2025/01/30 20:35
        • AI
        • programming
        • LLMのライセンス・利用規約まとめ: 出力をモデルの学習に使ってもいいのはどれ?

          6 users

          zenn.dev/hellorusk

          You may not use our Services for any illegal, harmful, or abusive activity. For example, you may not: (中略) - Use Output to develop models that compete with OpenAI.

          • テクノロジー
          • 2024/10/21 10:09
          • §1 LLMを動かすための最低限の基礎知識|Ollamaで体験する国産LLM入門

            5 users

            zenn.dev/hellorusk

            • テクノロジー
            • 2024/10/20 23:10
            • ai
            • Ollamaで体験する国産LLM入門

              198 users

              zenn.dev/hellorusk

              近年、AI 分野の中でも特に大規模言語モデル(LLM)の研究開発が急速に進展しています。日本国内においても、日本語に特化した「国産 LLM」の開発競争が激化しています。さらに、比較的小規模なパラメータ数でありながら高い性能を持つモデルが次々と登場し、特別な GPU 環境がない手元の PC でも、LLM を手軽に動かせる時代が到来しつつあります。 本書では、まず LLM を「動かす」こと、すなわち推論(Inference) に焦点を当て、そのために必要な基本的な知識を分かりやすく解説します。LLM の学習やファインチューニングには膨大な知識や計算資源が必要ですが、単に既存のモデルを動かすだけであれば、いくつかの重要なポイントを押さえることで、どなたでも比較的容易に始めることができます。 その上で、近年注目を集めている LLM 推論フレームワーク Ollama を活用し、実際にいくつかの代表的

              • テクノロジー
              • 2024/10/20 23:09
              • LLM
              • AI
              • あとで読む
              • oss
              • Ollama
              • 機械学習
              • 自然言語処理
              • 入門
              • 人工知能
              • 開発
              • 【風吹けば名無し】GPT-4o が獲得した日本語の語彙を調べる

                30 users

                zenn.dev/hellorusk

                昨日公開された GPT-4o は性能だけでなく処理速度の点からも注目を集めています。その速度に寄与しているのは、モデルの処理速度の改善だけでなく、日本語処理の改善も大きく関わっていると考えられます。 実際、OpenAIのサイトによれば、日本語は平均して 1.4 倍の効率で(1.4倍少ないトークンで)表せるようになったとされています。 これは、GPT-4o が GPT-4 に比べて日本語をより 語彙 (vocabulary) に含むようになったからです。語彙とは LLM における自然言語の処理の最小単位で、1つの語彙が1つの数値トークンに変換され、それがモデルに突っ込まれるという仕組みです。 ところで、GPT-4o では 『風吹けば名無し』 という文字列を 1 つの語彙として扱うのをご存知でしょうか。 このツイートで紹介されているように、GPT-4o では、ネットで多数出現するこういったフレ

                • テクノロジー
                • 2024/05/15 17:31
                • あとで読む
                • ollamaで LLM-jp-13B v2.0 を動かす

                  9 users

                  zenn.dev/hellorusk

                  最近 ollama の名前をよく聞くようになったので、自分でも試してみることにしました。 結論として、とてもお手軽に CPU 環境でローカル LLM を動かすことができたので、今後は ollama も積極的に使っていきたいなと思います。 ollama とは? ローカル LLM を動かすためのライブラリです。 LLM-jp-13B とは? NII主催の団体 LLM-jp が開発している、日本語に特化したローカル LLM です。 日本では、まだ数の少ない、フルスクラッチで学習された日本語LLM[1]で、寛容な Apache-2.0 で提供されています。 ollama で LLM-jp-13B v2.0 を動かす ではさっそく始めていきましょう。 準備: ollama をインストールする 以下のインストーラに従ってアプリケーションを入手できます。 アプリケーションの指示に従って、CLI 上でも

                  • テクノロジー
                  • 2024/05/12 19:19
                  • programming
                  • ollamaで Fugaku-LLM を動かす

                    19 users

                    zenn.dev/hellorusk

                    昨日公開された Fugaku-LLM は珍しく公式が GGUF ファイルを配布してくれているので、これを使って手元の Macbook で動かしてみます。 準備: ollama をインストールする 以下のインストーラに従ってアプリケーションを入手できます。 アプリケーションの指示に従って、CLI 上でも ollama コマンドを使えるようにしておきます。 ステップ1: Fugaku-LLM のファイルをダウンロードする からお好みのファイルを選びます。 とりあえず、一番サイズの小さい(おそらく量子化が一番効いている) 「Fugaku-LLM-13B-instruct-0325b-q5_k_m.gguf」を選びます。 の download ボタンからダウンロード。 ステップ2: Modelfile を作成する モデルファイルのダウンロードが終わったら、同じディレクトリに、Modelfile と

                    • テクノロジー
                    • 2024/05/11 10:42
                    • LLM
                    • 結局 BERT 系の日本語大規模言語モデルってどれを使えばいいの?JGLUEベンチマーク非公式まとめ

                      5 users

                      zenn.dev/hellorusk

                      2022年6月に日本語言語理解ベンチマークJGLUEが公開され、日本語大規模言語モデルの性能比較がより簡単に行えるようになりました。 しかしながら、2023年3月現在、JGLUEの test データやリーダーボード(モデルのスコア成績ランキング)は公開されていません。様々な企業・研究機関が dev データを使ってモデルの性能評価を行っている状況です。 そこで本記事では、現在公表されている dev データのモデルのスコア一覧をまとめてみます。あくまで、JGLUE のリーダーボードが公開されるまでの暫定的な記事としてご覧ください。 注: HuggingFace でアップロードされているモデルのスコアのみ掲載します。 * JCQA = JCommonsenseQA モデル パラメータ数 MARC-ja JSTS(v1.1) JNLI JSQuAD JCQA

                      • テクノロジー
                      • 2023/02/15 23:27
                      • search
                      • Marpで研究発表スライドを作る 〜Beamerを卒業しよう〜

                        3 users

                        zenn.dev/hellorusk

                        私は研究室のミーティング等で発表スライドを作成するとき、これまで しっかり作り込みたい時: PowerPoint あっさり作り上げたい時: Beamer (Overleaf 上で) という感じでツールを分けていました。しかし、Beamer よりも楽に使えるものがあればいいなあと思っていました。 最近、Marp という Markdown でスライドを作成できるツールを知り、いくつか記事を読みました。 ツール自体はとても使いやすそうに見えたのですが、記事で紹介されているスライドのデザインが何となく LT 向きで、自分好みではありませんでした。 そこで、よりアカデミックな風味の Marp のテーマ を自分で作ってみましたので、紹介します。 導入方法 Marp for VS Code はインストール済とします。 ディレクトリに以下のファイルを設置してください。

                        • テクノロジー
                        • 2022/09/28 06:45
                        • Marp
                        • レコメンド指標の整理: Recall@k・MRR・MAP・nDCG

                          5 users

                          zenn.dev/hellorusk

                          各クエリに対しそれぞれ上位 k 個の予測を出すようなシステムを評価する指標をまとめます。 Recall@k 各クエリに対して、上位 k 個の予測に含まれる正解数が、総正解数のうちどの程度の割合含まれているかを計算します。そして最後にクエリ全体で平均を取ります。 MRR (Mean Reciprocal Rank) 各クエリ i の予測を上から見たときに最初に正解が出てきた時の順位を rank_i とします。それに対して、以下のような式を計算します。 MRR = \dfrac{1}{|Q|} \sum_{i=1}^{|Q|} \dfrac{1}{rank_i} なお、予測に正解が一つも含まれない場合は \dfrac{1}{rank_i} = 0 とします。 MAP (Mean Average Precision) まず、Average Precision について説明します。これは y_j

                          • テクノロジー
                          • 2022/06/01 17:46
                          • 新しく日本語BERTのトークナイザを学習するときは limit_alphabet に気をつけよう

                            6 users

                            zenn.dev/hellorusk

                            huggingface/tokenizers を使って日本語BERTのトークナイザを新しく作りたい場合、色々な実装方法が考えられるが、BERT 向けにカスタマイズされた実装を持つクラスである BertWordPieceTokenizer を使うのが一番楽な実装である。例えば、以下の記事はとても参考になる。 コードにすると、以下のような感じになるだろう。 from tokenizers import BertWordPieceTokenizer from tokenizers.pre_tokenizers import BertPreTokenizer from tokenizers.processors import BertProcessing tokenizer = BertWordPieceTokenizer( handle_chinese_chars=False, strip_ac

                            • テクノロジー
                            • 2022/05/29 17:32
                            • あとで読む
                            • JTC (Japanese Traditional Company) という英語は間違っているのか?

                              8 users

                              zenn.dev/hellorusk

                              JTC (Japanese Traditional Company) とは、伝統的な日本の大企業が持つダメなところをからかう意味で使われる言葉 [1] です。普段 Zenn を使っているユーザーの中にも、JTC で働いている人、JTC を退職した人、JTC に就職しようか迷っている人などがいるかと思います。 この記事では JTC での働き方うんぬんに関してではなく、JTC という(日本で発生した)英単語自体について考察してみます。 形容詞の順番からの考察 さて、形容詞の順番には一定のルールがあるとされています。 画像の出典は https://www.langland.co.jp/english/column/english-column13.php より この図にもとづくと、Japanese は Origin(出身)、Traditional は Age(古さ)に相当し、Age は Orig

                              • テクノロジー
                              • 2022/04/18 14:03
                              • 英語
                              • Wiki.js + Heroku を使って、無料で高機能の情報共有 wiki を簡単に作る

                                205 users

                                zenn.dev/hellorusk

                                背景: GitHub wiki への不満 私の所属する研究室では、メンバー全員が1つの GitHub Organization に所属しており、情報共有はその Organization 上のリポジトリの GitHub wiki で行われています。 研究室がコンピュータサイエンス系であることもあってメンバーは GitHub や Markdown に慣れており、普段 GitHub wiki を使っていて困ることはそんなになかったのですが、それでも時々不満が出ることがありました。 不満として多いのは、色々記事を書いているうちに全体構造がよくわからなくなってしまうという点にあると思います。GitHub wiki ではディレクトリ構造を持てないので、全ての情報がリンクを経由してアクセスされることになり、段々と整理がつかなくなってしまいます。 複数のリポジトリにそれぞれ wiki を書くこともできます

                                • テクノロジー
                                • 2022/01/05 14:33
                                • heroku
                                • あとで読む
                                • wiki
                                • markdown
                                • ツール
                                • github
                                • js
                                • JavaScript
                                • dev
                                • techfeed
                                • Homebrew Cask で特定のバージョンを指定してインストールする

                                  3 users

                                  zenn.dev/hellorusk

                                  例として Vagrant 2.2.13 をインストールする場合を考えます。 まず以下のリンクにアクセスします。 https://github.com/Homebrew/homebrew-cask/commits/master/Casks/${インストールしたいアプリ名}.rb 例えば今回の場合 https://github.com/Homebrew/homebrew-cask/commits/master/Casks/vagrant.rb です。 対応するアップデートのコミットを見つけたら、右横のボタンをクリックしてハッシュをコピーします。 コピーしたハッシュで、以下のリンクの ${ハッシュ} の部分を置き換えます。

                                  • テクノロジー
                                  • 2021/11/19 10:31
                                  • フリーで使える日本語の主な大規模言語モデル(LLM)まとめ

                                    224 users

                                    zenn.dev/hellorusk

                                    ありがとうございます! 実は私本人がそのモデルの構築に関わっているのですが、詳細はまだ言えない状況です...。 来年3月の言語処理学会年次大会(NLP2023)での続報をお待ちください!このモデルに関する論文が公開される予定です(一応それを待ってからこの記事にも掲載します)。 (私が書いたものではありませんが、現段階で公開できる情報をまとめた記事があります: https://note.com/utokyo_itc/n/nb18b2a753f23 )

                                    • テクノロジー
                                    • 2021/10/29 18:35
                                    • BERT
                                    • 自然言語処理
                                    • NLP
                                    • 機械学習
                                    • あとで読む
                                    • 言語
                                    • 日本語
                                    • 開発
                                    • 勉強
                                    • LLM
                                    • テキスト生成における decoding テクニック: Greedy search, Beam search, Top-K, Top-p

                                      6 users

                                      zenn.dev/hellorusk

                                      テキスト生成における decoding テクニック: Greedy search, Beam search, Top-K, Top-p Transformer ベースの言語モデルが普及しているのは承知の通りだと思います。 中でも有名なのは BERT で、これは Transformer の Encoder のみを使う Autoencoding models と呼ばれるカテゴリのモデルです。入力の一部を隠してそれを復元するというタスクを大量に解かせることで事前学習を行うことになります。それゆえ、このタイプのモデルが最も向いているタスクは Token の分類(固有表現抽出等)や文章の分類など、入力の文章自体に興味がある場合です。 一方、Transformer の Decoder のみを使う Autoregressive models (GPT-2 など) や、 Encoder と Decoder

                                      • テクノロジー
                                      • 2021/06/04 04:56
                                      • ai
                                      • MLM Scoring を使って、BERT から文章の「自然さ」を計算する(+ センター英語で試してみた)

                                        7 users

                                        zenn.dev/hellorusk

                                        この記事は Masked Language Model Scoring (ACL 2020) を読んで、実装を動かしたメモです。 MLM Scoring とは? 英語をちょっとでも勉強したことのある人は、 ⭕️ I have a dog. ❌ I have a dogs. 上の文章が正しく、下の文章が間違っていることが分かるでしょう。 機械が自然言語を理解するために必要なことの一つとして、このように上の文章が正しいと分かることが挙げられます。 人間が文法的にあるいは意味的に「自然」だと考える文章に対し、より高い確率を与えるような確率分布 言語モデル P_{LM}(W) に関する研究が昔から行われてきました。言語モデルは \log P_{LM}(W) = \sum_{t=1}^{|W|} \log P_{LM} (w_t | W_{<t}) というように 「今まで出力した単語から次の単語を予

                                        • テクノロジー
                                        • 2021/05/10 01:15
                                        • NLP
                                        • HotEntry
                                        • 機械学習

                                        このページはまだ
                                        ブックマークされていません

                                        このページを最初にブックマークしてみませんか?

                                        『zenn.dev』の新着エントリーを見る

                                        キーボードショートカット一覧

                                        j次のブックマーク

                                        k前のブックマーク

                                        lあとで読む

                                        eコメント一覧を開く

                                        oページを開く

                                        はてなブックマーク

                                        • 総合
                                        • 一般
                                        • 世の中
                                        • 政治と経済
                                        • 暮らし
                                        • 学び
                                        • テクノロジー
                                        • エンタメ
                                        • アニメとゲーム
                                        • おもしろ
                                        • アプリ・拡張機能
                                        • 開発ブログ
                                        • ヘルプ
                                        • お問い合わせ
                                        • ガイドライン
                                        • 利用規約
                                        • プライバシーポリシー
                                        • 利用者情報の外部送信について
                                        • ガイドライン
                                        • 利用規約
                                        • プライバシーポリシー
                                        • 利用者情報の外部送信について

                                        公式Twitter

                                        • 公式アカウント
                                        • ホットエントリー

                                        はてなのサービス

                                        • はてなブログ
                                        • はてなブログPro
                                        • 人力検索はてな
                                        • はてなブログ タグ
                                        • はてなニュース
                                        • ソレドコ
                                        • App Storeからダウンロード
                                        • Google Playで手に入れよう
                                        Copyright © 2005-2025 Hatena. All Rights Reserved.
                                        設定を変更しましたx