LLM
「AIと簡単に対話できないかな?」「Node-REDでもLLMを使えたら面白いのに」 そんな思いを持っていた方もいるのではないでしょうか?今回はNode-REDとOllamaを組み合わせて、誰でも簡単にAIとの対話システムを構築する方法をまとめてみました。 開発環境には…
毎月開催されているwatsonx.ai Dojoのハンズオンの内容の復習の続きになります。 今回は2部構成の後半ですが、前回とは切り離して行える形です。 イベントページ ibm-developer.connpass.com 今回の内容はプロンプト・エンジニアリング入門ということで、プ…
毎月開催されているwatsonx.ai Dojoのハンズオンの内容を復習してみました。 内容が多いため、2部構成でお届けします。今回は演習1の部分と次回は演習2&演習3という組み合わせになっています。プログラミングなしでも演習1は体験できるのでこちらだけでもど…
先日、ClaudeというLLMを開発しているAnthropic社からニュースリリースがありました。新しいLLMの公開と既存モデルのアップデートに加え、特筆すべきは「computer use」という新機能です。この機能は、LLMがPCを操作できるようになるというものです。現状は…
今後、失敗してもリカバリできるようにメモ Ubuntuでアプリセンターなどでアプリ関係のアップデートを行うとNVIDIAやCUDAのドライバー関連、Docker側のGPUドライバを含んだ形でアップデートされてしまい。コンテナ関連が動作しなくなるという現象が発生しま…
仕事関連でOllama関連の作業を少しお休みしていたのですが、そろそろ開始するかということで触り始めていたのですが、GTX1070 mobileではあるもののGPUありPCでのLLMの動作が遅く感じていました。なんでかなと思っていたのですが、わからず進めていました。…
すでに一ヶ月ほど経ってしまっていますが、生成AIを使ったアプリ開発、入門編 〜watsonx.ai Dojo #2〜に参加しましたので、そのハンズオン内容の復習レポートとして記してみたいと思います。 参考 uepon.hatenadiary.com 前回は概論的な予備知識的な内容でし…
最近、AIのことは一応触ってはいますが、ちっともわからない状況です 先日までOllamaを使用していたのでローカルLLMについてはなんとなく分かってきた様でもありという状況ですが、OllamaはGGUF形式のモデルが使えるとはいえ、すべてのモデルがGUFF形式で公…
これまでOllamaを使用して比較的容易にローカルLLMモデルを使用することをやってきました。ここまで来ると未対応のLLMモデルを使用したくなってきます(よね)。 そこで、OllamaのREADMEファイルを読んでいったところ github.com Import GGUFという項目があり…
以前の投稿では、少し古いゲーミングPCにUbuntuをインストールし、Dockerコンテナを使ってOllamaを起動し、ローカルLLM環境を構築しました。 PC上でローカルLLMを動作させていましたが、最近ではモデルサイズが小さく、よりコンパクトなLLMが登場しています…
以前のエントリでは、Ollamaを使ってローカル環境でLLMを構築する手順を説明しました。それだけでも十分に活用できるのですが、さらに一歩進めて、Ollamaをより深く活用する方法について考えてみました。Ollamaをセットアップすると、REST APIを介してシステ…
最近では、生成系AIも徐々に多様化してきて、ローカルLLMの使用も流行ってきていますね。個人利用であれば、OpenAIのChatGPTなどのSaaS型の生成AIでも問題ないのですが、企業活動になるとそう言ってもいられない事象があるのはもっともかもしれません。 今回…