Visualizing Conversations with ChatGPT o3

On April 17, 2025, a new model called “o3” was released for ChatGPT. It has been an incredibly enjoyable experience, expanding both the range and depth of what I can explore. The graph below visualizes my daily conversation volume with o3, based on data exported from the Data Controls. With the continuous discoveries and learning it supports, it feels unimaginable to have any limits on interaction.

April 26, 2025 · 1 min · 佐藤桂輔

データで見る、o3との対話の軌跡

2025年4月17日にChatGPTの新モデル「o3」がリリースされました。 非常に楽しいモデルで、よりできることの広がりと深さを感じます。 グラフはデータコントロールからエクスポートしたものをもとに、o3との日々の対話回数を可視化したものです。 毎日の学びと発見を支えてくれるこの存在に、回数制限など考えられない日々です。

April 26, 2025 · 1 min · 佐藤桂輔

"Practical Note: Applying Anthropic’s Values in the Wild to Our “Frame × Tone” Prompt Design"description: "A hands-on guide from Sato Lab showing how the 3,307 values uncovered in real-world Claude 3/3.5 chats can be leveraged through a two-layer prompt architecture."

Introduction Take-away (one sentence) Large-scale language models mirror about 20 % of a user’s expressed values— the key to harnessing this is a two-layer prompt: Frame (specs) × Tone (values). This post distills Anthropic’s latest paper, Values in the Wild, and presents Sato Lab’s prompt-optimization workflow built on those findings. Key Findings from the Paper FocusPaper insightNoteData sizeAnonymous analysis of 700 k Claude 3/3.5 production chatsSnapshot: 18–25 Feb 2025Extraction****3 307 AI values / 2 483 human values clusteredTop-level: Practical / Epistemic / Social / Protective / PersonalMirroring rateSame-word value echo in 20.1 % of repliesInterpreted as “resonance channel”Representative valueshelpfulness, transparency, empathy …Aligns with the HHH (Helpful-Honest-Harmless) principle ...

April 24, 2025 · 2 min · 佐藤桂輔

Claude 3/3.5 が“実世界対話”で示す 3,307 個の価値観を分析した最新論文を、佐藤研究室独自の『枠/色プロンプト』設計に応用した実践ノート

はじめに 結論一行 大規模言語モデル(LLM)は、人間の価値観を 20 % 程度“鏡写し”にする── その特性を活かす鍵が 「枠 (Frame) × 色 (Tone)」 の二層プロンプトです。 本稿では、Anthropic 社の最新論文 Values in the Wild が示した 「AI の価値表現マップ」を出発点に、佐藤研究室で考案したプロンプト最適化フローを共有します。 論文でわかったこと 観点論文知見メモデータ規模Claude 3/3.5 の 70 万件 実運用対話を匿名解析Feb 18-25 2025 のスナップショット抽出結果****3 307 AI 値 / 2 483 人間値 を階層化上位5領域:Practical / Epistemic / Social / Protective / Personalミラー率ユーザ価値と“同一語”を返す確率 20.1 %「共鳴チャンネル」が開く確率と解釈代表値helpfulness, transparency, empathy …HHH(Helpful-Honest-Harmless)と整合 佐藤研究室の解釈 ― “常在値/文脈値” 二層モデル 層概念実装ヒント**常在値 (Service Traits)helpfulness / clarity / transparency … タスク横断で常に発火命令形 で 枠 (Frame) を固定し優先度を上げる文脈値 (Context Traits)**empathy / authenticity / sustainability … ユーザ入力で変動丁寧語+価値語 で 色 (Tone) を毎ターン提示 ...

April 24, 2025 · 1 min · 佐藤桂輔

o3で間違い探し

o1‑pro では拾い切れなかった差分を、o3 がすべて指摘! 最新モデルの実力に思わず研究室一同びっくりしました。 o1-pro(2025-01-18)では見つけられなかった細かな違いを、丁寧に見つけていました。 モデル正解数備考o3 (2025‑04)****5 / 5誤検出ゼロo1‑pro(2025-01)3 / 5釘の数と工具の取っ手の長さを検出できず (検証の様子は下の動画からどうぞ) 動画で使用した教材について 画像提供:ちびむすドリル(株式会社パディンハウス) ↳ 元画像はこちら → https://happylilac.net/machigai-h.html

April 17, 2025 · 1 min · 佐藤桂輔

Spot‑the‑Difference with ChatGPT o3

ChatGPT o3 meticulously spotted every subtle difference that the earlier o1‑pro model (2025‑01‑18) missed. ModelCorrect AnswersNoteso3 (2025‑04)****5 / 5Zero false detectionso1‑pro (2025‑01)3 / 5Failed to catch the number of nails and the length of the tool’s handle (Watch the demo video below for the full verification process.) About the teaching materials used in the video Image provided by: Chibimusu Drill (Padding House Co., Ltd.) ↳ Original image here → https://happylilac.net/machigai-h.html

April 17, 2025 · 1 min · 佐藤桂輔

New Web App "Cohere For AI Chat" Under Development

We are excited to announce that our project, Cohere For AI, has developed a new web application called “Cohere For AI Chat.” This innovative app leverages the state-of-the-art generative AI model “Command A” by Cohere. Currently, we are inviting project members, including faculty and students, to test and provide feedback on this application. The app supports the display of mathematical equations, though there are still some technical challenges, and occasionally, equations might not render perfectly. Should you experience any display issues, please use the “Retry” button to reload the content. ...

March 17, 2025 · 1 min · 佐藤桂輔

Webアプリ「Cohere For AI Chat」を作成中

Cohere For AIプロジェクトで新たにWebアプリ「Cohere For AI Chat」を開発しました。このアプリは、最新の生成AIモデルであるCohere社の「Command A」を活用しています。現在、プロジェクトメンバーの教員や一部の学生に試用をお願いしているところです。 数式の表示にも対応していますが、技術的な課題もあり、時折表示が不安定になることがあります。その場合は画面の「リトライ」ボタンを押して再表示する仕組みを備えています。 このWebアプリは、2025年度(4月以降)の2年生対象の物理授業で活用する予定です。学生のみなさんに実際に使用してもらい、継続的にフィードバックを収集して改善を重ねていきます。また、得られた知見や学生からの声を、随時教育現場にも反映していく予定です。

March 17, 2025 · 1 min · 佐藤桂輔

「AIとの対話」をサッカー戦術から考える

AIとの対話におけるプロンプト手法の考え方について、サッカーの戦術を用いた分かりやすい例えを考えてみました。 対話型AIに対するプロンプトの使い方には、「丁寧なお願い型」と「直接的な指示型」の大きく二つのアプローチがあります。 「丁寧なお願い」は、サッカーで言うところのポゼッション戦術に似ています。慎重にパスをつなぎながら、ゆっくりと対話を深め、AIとの関係性を構築していく方法です。このアプローチは深い理解や創造性を引き出す可能性があります。 一方、「直接的な指示」はカウンター戦術に似ています。明快で迅速な答えを引き出すのに適しており、具体的でシンプルな回答を迅速に得るのに役立ちます。 サッカーと同じように、AIとの対話にも「唯一の正解」は存在しません。じっくり美しく崩すことを目的とするか、素早く明確な一発回答を狙うかは、目的や個人の価値観に依存します。 対話型AIの本質は「共創」にあります。ベンチマーク評価は一発回答を重視しがちですが、継続的な対話を通じて得られる深い理解や創造性こそが、真に評価されるべき点だと考えています。 私たちは、状況や価値観に応じて柔軟にプロンプトを使い分け、AIとの「共創」を目指していくべきでしょう。 皆さんはAIとの対話をどのように捉え、どのように取り組んでいますか?

March 6, 2025 · 1 min · 佐藤桂輔

Considering AI Dialogue through Soccer Tactics

Let’s reflect on AI dialogue strategies using soccer tactics as a metaphor. When engaging with conversational AI, two main prompting approaches can be distinguished: “polite requests” and “direct instructions.” “Polite requests” resemble a possession-based soccer strategy, carefully connecting passes, patiently building relationships, and deepening mutual understanding through prolonged interactions. On the other hand, “direct instructions” are akin to counter-attack strategies, quickly achieving clear, concise, and straightforward responses when efficiency is paramount. ...

March 6, 2025 · 1 min · 佐藤桂輔