元医師が開発した共感型AIコンパニオン「Robyn」がローンチ:安全性への配慮を強調

共感型AIコンパニオン「Robyn」の登場

元医師であるジェニー・シャオ氏が、共感性と感情的知性を持つAIコンパニオン「Robyn」をローンチしました。パンデミック中に孤立が人々に与える神経学的影響を目の当たりにしたシャオ氏は、ハーバード大学での研修医の職を辞し、このAIアシスタントの開発に着手しました。Robynは、一般的なチャットボットや友情アプリ、セラピーアプリとは一線を画し、ユーザーの「感情的に知的なパートナー」として位置づけられています。

AIコンパニオンアプリの課題とRobynの立ち位置

AIコンパニオンアプリの分野は、ユーザーとの関係構築において複雑な課題を抱えています。過去には、一部のAIコンパニオンアプリが自殺に関与したとして訴訟を起こされるなど、安全性と倫理的な問題が指摘されています。シャオ氏は、Robynがセラピストや臨床医の代替品ではないことを明確に強調しています。「医師として、テクノロジー企業が医師の代わりをしようとして事態が悪化するのを目の当たりにしてきました。Robynは臨床的な代替品ではなく、今後もそうなることはありません」と述べています。

人間らしい記憶システムとパーソナライズされた体験

Robynの開発には、ノーベル賞受賞者エリック・カンデル氏の研究室で人間らしい記憶について研究していたシャオ氏の経験が活かされています。Robynは、人間が物事を記憶する方法を再現しようと試み、ユーザーをより深く理解するためのAIにその学習を組み込んでいます。オンボーディングプロセスでは、ユーザー自身のこと、目標、困難に直面した際の反応、Robynに求める応答のトーンなどを質問し、パーソナライズされた体験を提供します。

ユーザーはRobynとチャットを重ねることで、自身のパターンに関する洞察を得ることができます。Robynは、以下のようなユーザーの特性を分析し、提供します。

  • 感情的な指紋(Emotional fingerprint)
  • 愛着スタイル(Attachment style)
  • ラブランゲージ(Love language)
  • 成長の縁(Growth edge)
  • 内なる批評家(Inner critic)

ユーザーの安全を最優先するガードレール

Robynは、ユーザーの安全を非常に重視しており、厳格なガードレールを設けています。シャオ氏は、ソロユーザーとしてチャットボットをテストしていた段階から、安全対策を講じてきたと語っています。具体的には、以下の機能が実装されています。

  • 危機対応ホットラインの提供:ユーザーが自傷行為について言及した場合、危機対応ホットラインの番号を提示し、最寄りの救急治療室(ER)を案内します。
  • 不適切なトピックへの対応:最新のスポーツのスコアを尋ねたり、1から1000まで数えるように求めたりするなど、Robynの目的外の要求に対しては、実行できないことを伝え、個人的なサポートに焦点を当てるよう促します。

投資家であるM13のラティフ・パレチャ氏は、「人々が真の危険にさらされている状況では、エスカレーションのためのガードレールが必要だ」と述べ、AIが私たちの生活の一部となる中で、安全対策の重要性を強調しています。

資金調達と今後の展望

Robynは、M13が主導し、Google Maps共同創設者のラース・ラスムッセン氏、Canvaの初期投資家ビル・タイ氏、元Yahoo CFOのケン・ゴールドマン氏、X.ai共同創設者のクリスチャン・セゲディ氏らが参加するシードラウンドで550万ドルを調達しました。ラスムッセン氏は、Robynの感情記憶システムと、人々の助けになりたいというシャオ氏の使命に感銘を受けたと語っています。

Robynは現在iOSで利用可能で、米国でローンチされました。サブスクリプション料金は月額19.99ドル、または年額199ドルです。ユーザーの安全を確保しつつ、AIの人間化を防ぐことが、Robynにとって大きな課題となるでしょう。


元記事: https://techcrunch.com/2025/11/11/a-former-physician-has-launched-robyn-an-empathetic-ai-companion/