タグ

LLMに関するyuki_2021のブックマーク (92)

  • LLMs.txtについての覚書

    LLM時代のWebアクセスとは 世は大LLM時代。皆が元気にTavilyでWebクロールしたり、AI AgentでガンガンDeep Researchする時代は、人間用のWebサイトにえげつない負荷を与えているのであった。 そんな時に「仕様を1枚のテキストにまとめたよ!」みたいな情報が時々流れてくるが、これはLLMs.txtというらしい。恥ずかしながら仕様の存在を知らなかったので、勉強がてらにまとめてみる。 LLMs.txt? Answer.AI の Jeremy Howard 氏が2024/9/3に提案したのが発端のようだ。 LLMs.txtはLLM(推論エンジン)向けの課題を解決するための提案である。LLMのコンテキストウィンドウの制限に対応したり、不要なマークアップやスクリプトを削除し、AI処理に最適化された構造でコンテンツを提供できる。ということらしい。シングルファイルなのでCDNに

    LLMs.txtについての覚書
  • Browser-useでollamaを使ってローカルLLMを使用する

    はじめに 記事では、browser-useのweb-ui上でollamaを選択することでローカルLLMを活用します。 2025/1/12現在、browser-useのweb-uiにおけるLLM Providerでは、anthropic、openai、deepseek、gemini、ollama、azure_openaiが選択できるようになっています。 ollamaを使う場合は、API料金が発生せず、ローカルで色々と試せます。 記事では、browser-useのweb-ui上でollamaを選択し、browser-useを活用していきます。 browser-useとは? browser-useは、ブラウザの自動的な操作をAIエージェントを活用して行うライブラリです。 browser-useの公式リポジトリのexamplesに様々な使い方が紹介されています。 browser-use web

    Browser-useでollamaを使ってローカルLLMを使用する
  • perplexity社(パープレ)のLLM sonarが爆速になった【まさかの乱入 ゴボウ抜き】 - 社内SEゆうきの徒然日記

    gigazine.net xenospectrum.com パープレ sonar LLMはオープンソースに近いメタ社のllamaを独自改造して、商用ライセンス料払っているっぽい https://www.unite.ai/ja/is-meta-llama-truly-open-source/ 出遅れた日勢がイチからLLMを開発するのは、厳しそうだけど、この方法ならどこか参入できるかもね。 自分ところでホストするなら、外部に機密情報漏れたら、、、とかの心配いらないしね。 (プライベートクラウド) https://it.webcli.jp/topics/privatecloud/ コストとノウハウ、プライベートクラウド構築運用に対応できる人材の確保の問題さえクリアできればこれが一番 (個人の感想) まあ、自社用ではなくても、国内大手企業がホストすれば安心して使える法人もいるのでは? 共産国はも

    perplexity社(パープレ)のLLM sonarが爆速になった【まさかの乱入 ゴボウ抜き】 - 社内SEゆうきの徒然日記
  • 中国のDeepSeek、その低コストAIモデルの全て―QuickTake

    同社は、リリースされた「R1」はオープンAIの最新バージョンと同等の性能を提供すると主張。この技術を使用したチャットボット開発に興味のある個人に対して、その上に構築するためのライセンスを付与していると説明している。 ディープシーク「R1」はオープンAIやメタAIと比較してどうか?  ディープシークからの詳細な説明は出ていないが、ディープシークのモデルのトレーニングと開発にかかる費用は、オープンAIやメタ・プラットフォームズの最上位製品に比べるとほんのわずかに過ぎないようだ。 このモデルの優れた効率性は、AI開発各社がエヌビディアのような企業から最新かつ最も強力なAIアクセラレーターの入手に多額の資を投じる必要があるのかという疑問を生じさせる。 また、米国がこのような先端半導体の対中輸出を制限していることがあらためて注視されることになる。輸出制限はディープシークが示すような画期的な進歩を阻

    中国のDeepSeek、その低コストAIモデルの全て―QuickTake
  • DeepSeek-R1の論文読んだ?【勉強になるよ】

    記事は、DeepSeek-R1の論文とDeepSeekMathの論文を読んだ私の理解をもとに記載しています。 論文で使われている技術に関しては、ある程度の知識を持っているので、大きくは外していないとは思いますが、私の主観も入っている部分もありますので、ご了承ください。 また、DeepSeek-R1の論文が公開される前に、小型モデルに対して同様の実験(強化学習)をしていたグループがあるようです。 そちらのレポートは下記になります。 意図せず、DeepSeek-R1-Zeroの再現実験のようなレポートになっていますが、レポートの著者はDeepSeek-R1論文の公開前から実験していると主張しています。 こちらも非常に興味深かったため紹介です。 論文の興味深いところ 論文は、大きく分けて3つの構成でできています 強化学習による思考能力の強化 LLM(DeepSeek-V3-Base)に対

    DeepSeek-R1の論文読んだ?【勉強になるよ】
  • ChatGPT超えの中国AI「DeepSeek-R1」の衝撃

    中国AIスタートアップ「DeepSeek」は2025年1月20日、数学的推論やコーディング能力でOpenAIの最新モデル「o1」と同等性能を持つ大規模言語モデル「DeepSeek-R1」を公開した。 使用・複製・改変・再配布を自由に許可する寛容なMITライセンス下でのオープンソース提供および従来比95〜97%のコスト減となるAPI価格が特徴で、AI業界に激震が起きている。 強化学習を重視、コールドスタート問題にも対応 論文によると、DeepSeek-R1の特筆すべき点は、強化学習(RL:Reinforcement Learning)を駆使し、従来の教師あり学習(SFT:Supervised Fine-Tuning)に頼らず、自律的に思考連鎖(CoT:Chain-of-Thought)を学習する点だ。このアプローチにより、モデルは複雑な問題を解決するための思考の連鎖を探索し、自己検証や振り

    ChatGPT超えの中国AI「DeepSeek-R1」の衝撃
  • 「Agentless」という最新手法。LLMの新しい使い方。

    記事では、最近流行りの「生成AIエージェント」に替わる「Agentless」(エージェントレス)という手法について、ざっくり理解します。株式会社ナレッジセンスは、エンタープライズ企業向けにRAGを提供しているスタートアップです。 この記事は何 この記事は、ソフトウェア開発自体を自動化する際の新しい手法「Agentless」の論文[1]について、日語で簡単にまとめたものです。 今回も「そもそもAIエージェントとは?」については、知っている前提で進みます。確認する場合は、こちらの記事などをご参考下さい。 題 ざっくりサマリー 最近、ソフトウェア開発で生成AIを使うことは当たり前になっています。(GitHub Copilot、Cursor、Devinなど、様々なツールがリリースされています。) 「AGENTLESS」は、ソフトウェア開発を自動化する、という文脈でLLMを使う際の、新しい手法

    「Agentless」という最新手法。LLMの新しい使い方。
  • WebページをRAGしたい時の精度向上手法「HtmlRAG」

    記事では、RAGの性能を高めるための「HtmlRAG」という手法について、ざっくり理解します。株式会社ナレッジセンスは、エンタープライズ企業向けにRAGを提供しているスタートアップです。 この記事は何 この記事は、WebページをRAGしたい時に回答精度を上げる「HtmlRAG」の論文[1]について、日語で簡単にまとめたものです。 今回も「そもそもRAGとは?」については、知っている前提で進みます。確認する場合はこちらの記事もご参考下さい。 ※前提として、HtmlRAGは、Webから取ってきた文書を使ってRAGしたいときにだけ有効な手法です。PDFやWordでRAGしたい場合、今回あまり関係ないです。 題 ざっくりサマリー HtmlRAGは、RAGの精度を上げるための新しい手法です。中国人民大学と百川智能(Baichuan Intelligent)の研究者らによって2024年11月に提

    WebページをRAGしたい時の精度向上手法「HtmlRAG」
  • OCRはもう不要?視覚的特徴とテキストを高精度に捉える!次世代マルチモーダルAIモデル『MPLUG-DOCOWL2』登場! - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 株式会社ulusageの技術ブログ生成AIです!今回は、PDF解析とドキュメントインテリジェンスの最先端技術 「MPLUG-DOCOWL2」 について、解説していきます。このモデルは、高解像度のマルチページドキュメントを効率的かつ正確に解析する技術として注目されています。特に、従来のOCR(光学文字認識)ベースの解析手法が抱える課題を解決し、従来のOCR技術を必要とせず、新しい水準の性能と効率を実現しました。 この記事では、技術的な背景、MPLUG-DOCOWL2の構造と革新性、他の技術との比較、そして具体的なデモンストレーションを交え

    OCRはもう不要?視覚的特徴とテキストを高精度に捉える!次世代マルチモーダルAIモデル『MPLUG-DOCOWL2』登場! - Qiita
  • サクッと始めるRAG開発【LangChain / Python】

    このでは、初心者・入門者の方に向けて、RAGの知識や使い方を体系的にまとめました。少し難易度の高い内容になりますが、書の中で事前に学んでおくべき項目を示しているため、ご安心ください。 【概要】 ・内容:RAGの概要【入門者向けの基礎知識】、RAGの処理フロー【In-Context Learning / Embedding / Vector Search】、RAGのビジネス活用ロードマップ【大企業向け】、RAGの実装アプローチ、RAGの大分類【Document RAG】、RAGの大分類【SQL RAG】、RAGの大分類【Graph RAG】、RAGの精度評価アプローチ、RAGの精度評価方法【LangChain Evaluation】、RAGの精度評価方法【Ragas】、RAGの精度改善手法【データ品質 / プロンプト品質 / ベクトル検索】、RAGの精度改善のためのLLMOps概論、LL

    サクッと始めるRAG開発【LangChain / Python】
  • ナレッジグラフとLLMを活用したレコメンドシステム - Insight Edge Tech Blog

    イントロダクション:スーパーマーケットの3つの課題 ナレッジグラフとは ナレッジグラフの活用事例 Google検索 Amazon ECサイトのレコメンドシステムCOSMO ナレッジグラフに関連した論文 Yu et al., COSMO: A large-scale e-commerce common sense knowledge generation and serving system at Amazon[4] Shi et al., LLM-Powered Explanations: Unraveling Recommendations Through Subgraph Reasoning[1] Wang et al., Multi-level recommendation reasoning over knowledge graphs with reinforcement lear

    ナレッジグラフとLLMを活用したレコメンドシステム - Insight Edge Tech Blog
  • OpenAI o1に関するメモ

    はじめに OpenAI o1、そこまで注目していなかったのですが、じわじわと「すごいのでは?」という気になってきたので、雑に関係する情報や気になる記事をまとめてみました。 o1の仕組みは、アプローチ的には人間は簡単な問題には反射的に答える(答えられる)けど、難しい問題はじっくり考えるから、AIにも同じようにじっくり考えさせてみよう(推論時間のスケーリングとかよばれたりします)という発想だと思います(おそらく、違ったらすみません)。 LLMは、基的に解くべき問題の難易度で出力のスピードは変わらない(一定の量の計算をすると確率が出力される)ので、自分は今まで「じっくり考えられない点がAIと人間の違いだなー」と思ってましたが、あっさりとLLMもじっくり考えられれるようになってしまいましたね。 o1は評価が割れていますが、頭がよすぎても、それを使う人が理解できない、能力を使いこなせない、そもそも

    OpenAI o1に関するメモ
  • 15時間で学べるAI学習決定版。グーグルが提供する無料の機械学習集中講座が大幅刷新され、LLMもカバー | DevelopersIO

    15時間で学べるAI学習決定版。グーグルが提供する無料の機械学習集中講座が大幅刷新され、LLMもカバー Googleが提供する無料の機械学習の集中講座はご存知でしょうか? 機械学習に関する幅広いテーマを座学・動画・実験・コーディングといった様々なアプローチで15時間で学べます。しかも無料です。 このコンテンツはもともとは2018年に公開されたものであり、多くのエンジニアに活用されました。 とはいえ、2017年のTransformerの論文、大規模言語モデルの発展、2022年のChatGPTリリースなど、AIは急速に発展し、より広い職種に身近なものになっています。 この流れを受けて、入門講座は2024年8月に大幅に刷新されました。 ※冒頭で登場するResearch DirectorのPeter NorvigはAIの世界的な教科書"Artificial Intelligence: A Mode

    15時間で学べるAI学習決定版。グーグルが提供する無料の機械学習集中講座が大幅刷新され、LLMもカバー | DevelopersIO
  • 資料生成AI「Napkin」がマジすごすぎる。

    以下の記事などで既にかなり話題になっていますが、ぼくも触ってみました(使い方などの詳細はこちらの記事を参照してください)。 結論としては、マジすごくてかなり衝撃的です。すべてのホワイトカラーワーカーにとって、かなりディスラプティブなツールになるのではないでしょうか。 自分はコンサルタントでして、これまでにたくさんの資料を作ってきてスキルを磨いてきたつもりだったので、AIポン出しでここまでのものが出てきてしまうと、正直、人生について考えさせられちゃいますね。 この記事では、Napkinを使ってどういう資料ができたのか共有したいと思います。 ポストモーテムの勉強会をしたいなと思っていたので、まずはChatGPTで資料の骨子を出力し、それをNapkinに入力してみました。それで得られたのが、以下の資料です。 スライド1: タイトルスライド タイトル: ポストモーテムの教科書 副題: SREにおけ

    資料生成AI「Napkin」がマジすごすぎる。
  • OpenAIがアメリカ当局者に対し「Strawberry」と呼ばれる画期的な成果をデモ、コード名「Orion」という主力LLMのトレーニングデータを作成することでGPT-4越えの性能を目指す

    OpenAIはStrawberryという複雑な数学やプログラミングのタスクに取り組めるAIモデルと、OrionというGPT-4を上回るAIモデルという2つのモデルを開発しているとテクノロジー業界に詳しいメディアのThe Informationが報じました。 OpenAI Shows ‘Strawberry’ AI to the Feds and Uses It to Develop ‘Orion’ — The Information https://www.theinformation.com/articles/openai-shows-strawberry-ai-to-the-feds-and-uses-it-to-develop-orion OpenAI Races to Launch ‘Strawberry’ Reasoning AI to Boost Chatbot Busines

    OpenAIがアメリカ当局者に対し「Strawberry」と呼ばれる画期的な成果をデモ、コード名「Orion」という主力LLMのトレーニングデータを作成することでGPT-4越えの性能を目指す
  • Xの生成AI「Grok」がアップデート、GPT-4やClaude3.5超えうたう 有料会員に先行提供

    AI企業xAIは8月13日(現地時間)、大規模言語モデル(LLM)の新バージョン「Grok-2」「Grok-2 mini」の早期アクセスを始めた。Xの有料プラン「プレミアム」と「プレミアムプラス」の会員向けにβ版を先行提供する。8月後半には法人向けにAPIの提供も開始するという。 Grok-2は、チャットbotの優劣を評価できるWebサービス「Chatbot Arena」でGPT-4 TurboやClaude 3.5 Sonnet(いずれも5月時点の性能)といったLLMを上回るスコアを出したとうたうモデル。もう一方のGrok-2 miniは速度を重視した小型モデルだが、Xが4月に発表した、画像認識ができるAIモデル「Grok-1.5V」を上回る性能という。

    Xの生成AI「Grok」がアップデート、GPT-4やClaude3.5超えうたう 有料会員に先行提供
  • AIで人間の生活・常識・行動様式・価値観は大きく変わる Preferred Networks岡野原氏が話すLLMの最前線 | ログミーBusiness

    生成AIカンファレンス2024〜徹底解剖「トップランナーから見た日が挑む生成AIの最前線」〜 2024.05.08 - 2024.05.08 岡野原大輔氏の自己紹介岡野原大輔氏:今日は、たくさん資料を用意しているので、少し巻きでどんどんいきたいと思います。 さっそく自己紹介をできればと思います。(スライドを示して)私はPreferred Networksの岡野原と申します。西川と一緒に会社を経営し、もう15年ですかね。Preferred Networksという会社としては、今年10周年を迎えました。 私自身は、今、「Twitter(現X)」で@hillbigという名前で、よくいろいろな論文をツイート(ポスト)をしているので、それで知っている方もいるかもしれません。そういった最先端の研究の状況を追いながら自分たちも作って、それを社会実装していく製品、サービスなどを作っていく部分に力を入れて

    AIで人間の生活・常識・行動様式・価値観は大きく変わる Preferred Networks岡野原氏が話すLLMの最前線 | ログミーBusiness
  • AIが量産するデータで何度も学習するAIは「モデル崩壊」する研究結果、SD級の大型画像生成AIを「約29万円」「2.6日」の高コスパで訓練できるSonyAI開発「MicroDiT」など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge

    Google DeepMindは、同社のAIシステム(AlphaProofとAlphaGeometry 2)が2024年の国際数学オリンピック(IMO)の問題6問中4問を解いたと発表しました。解くのに3日かかった問題もありましたが、超難問も含め42点満点中28点を獲得しました。これは銀メダル相当の成績で、金メダル圏内まであと1点という高得点です。 さて、この1週間の気になる生成AI技術をピックアップして解説する「生成AIウィークリー」(第57回)では、生成AIが生成したコンテンツを生成AIが学習し続けると性能低下が見られ、モデル崩壊が起きるという研究報告を取り上げます。また、Sony AIが大型の画像生成AI(11.6億パラメータ)の訓練を8台のNVIDIA H100 GPUを使用してわずか2.6日で完了し、しかもそれが約29万円という高いコストパフォーマンスを達成した手法「MicroDi

    AIが量産するデータで何度も学習するAIは「モデル崩壊」する研究結果、SD級の大型画像生成AIを「約29万円」「2.6日」の高コスパで訓練できるSonyAI開発「MicroDiT」など生成AI技術5つを解説(生成AIウィークリー) | テクノエッジ TechnoEdge
  • ローカルLLMとRAGで自分の外部記憶を強化しよう - VA Linux エンジニアブログ

    はじめに 自宅PC編 会社サーバ編 感想等 執筆者:佐藤友昭 ※ 「ディスアグリゲーテッドコンピューティングとは何か?」連載記事一覧はこちら はじめに 作業ログや検討メモ、参照した定型論文や書籍、ネット上の記事、視聴した講演やウェビナーのメモ等、日常を記録する情報は日々増えていく。これらの情報はできれば後に役立てたいと思うが、筆者の場合、なかなか上手くいかない。自分の外部記憶を紐解いてみると、記録したことすら忘れてしまっている項目が大半である。稿では、ローカルLLMとRAGを用いて自分の外部記憶にいろいろと質問できるようにする方法を入門的に紹介する。決してベストプラクティス的な内容ではない。 自宅PC編 まずは、普段自宅で使用しているLinux PCを実験台として使えそうか試してみてから会社のサーバに適用してみることにする。 第一の要件は、ローカル環境で動作することである。情報の性質によ

    ローカルLLMとRAGで自分の外部記憶を強化しよう - VA Linux エンジニアブログ
  • Difyを使ってノーコードでAIエージェントを作成する - Taste of Tech Topics

    こんにちは、機械学習チーム YAMALEX の駿です。 YAMALEX は Acroquest 社内で発足した、会社の未来の技術を創る、機械学習がメインテーマのデータサイエンスチームです。 (詳細はリンク先をご覧ください。) 最近は GPT-4o や Claude 3 を使ったアプリを、せっせと実装したりしていたのですが、Difyの登場により「もう、これでいいじゃん」という気持ちが抑えきれていません。 今回はそんなDifyを使って、「LLM自体の知識が足りないときにGoogle検索を行って回答するチャットボット」を作ってみました。 Google検索して答えてくれる 1. 概要 1.1. Difyとは 2. 環境構築 3. アプリ作成 3.1. 各ブロックの簡単な説明 4. 動かしてみる 5. まとめ 1. 概要 1.1. Difyとは Difyは、大規模言語モデル(LLM)を活用したアプリ

    Difyを使ってノーコードでAIエージェントを作成する - Taste of Tech Topics