エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【手順付き】初心に立ち返ってGPT-2を学習してみる - ABEJA Tech Blog
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【手順付き】初心に立ち返ってGPT-2を学習してみる - ABEJA Tech Blog
はじめに ABEJAでデータサイエンティストをしている真鍋です。 アドベントカレンダーぶりの登場になりま... はじめに ABEJAでデータサイエンティストをしている真鍋です。 アドベントカレンダーぶりの登場になります。 今回も生成AI、特にLLM (大規模言語モデル) 系のネタです。 LLMが登場して久しく、業務でLLMを使うのが当然の方も多くなっているのではないかと思います。裏では、私のようなデータサイエンティストやエンジニアが、APIを通じてGPT等の言語モデルを利用する場合も一定あるのではないでしょうか。 一方で、ただAPIを叩くだけではわからない部分も多いため、実際に作ってみようじゃないか、というのが、今回の記事の趣旨です。 とはいえ、実際の大規模言語モデルは、GPUを何台も用意するレベルで、がっつりリソースを使うことになるので、さすがに厳しいので、簡単に小規模言語モデル (GPT-2) を作成してみよう、というのが本記事の趣旨です。 LLMとは? LLMの基礎知識 LLMの原理的な話は、