DeNA AIイノベーション事業本部でプロダクトマネージャー/UXデザイナーを務めている小原です。2025年の半ばからは、「olelo(オレロ)」というAI英会話アプリの開発に携わっています。

このプロダクトは、英語学習や英会話練習を、AIを活用することでより楽しく、かつ実践的で身につく体験にできないかというチャレンジから生まれました。

AIをプロダクトに組み込むことで、より価値ある顧客体験をどうつくっていけるのか。そんな問いに向き合いながら、日々試行錯誤を重ねています。

今回はoleloの開発プロセスを振り返りながら、現時点での学びをシェアしたいと思います。

oleloの特徴の一つは、AIを活用することで、ユーザーそれぞれの「やりたいこと・話したいこと」にパーソナライズした英会話体験を提供する点です。

ユーザーの目標や状況に合わせてシナリオや教材が生成されるため、本当に自分が話したい場面や話題に沿った英会話練習ができます。

さらに、oleloではAI英会話バディがユーザーをサポートします。日本語で壁打ちしながら目標を深掘りしてシナリオを考えたり、英会話の練習中に文脈を汲み取りながら柔軟にヒントを出してくれたりと、従来の英会話アプリにはない新しい体験をつくっています。

私が所属するAIイノベーション事業本部では、AIネイティブなプロダクト開発を推進することをミッションに、複数の新規プロダクトの立ち上げに取り組んでいます。

その中でもoleloは、事業本部内で初期から着手していたプロダクトの一つです。音声対話はLLMとの相性が良く、今後の伸びしろも大きい領域だと考えられたことから、英会話をテーマに新規プロダクトとして立ち上げが始まりました。

立ち上げ初期は、PdM/UXデザイナー(小原)・PdM/英語学習経験者・エンジニアの3人でチームを組み、企画・プロトタイピング・体験検証などを進めていきました。

AIを核としたプロダクトの特徴として「体験の自由度」が高いことが挙げられます。

従来のソフトウェアでは、膨大なコンテンツや条件分岐をつくらないと実現できなかった処理も、AIであれば文脈を推測しながら、ある程度柔軟に、しかも高速に扱えるようになりました。 万能ではありませんが、感覚としては“圧倒的なマンパワーとスピード”、例えるなら“お願いしたことに対して勝手に解釈し、アウトプットをくれる自分専用の制作会社※”を手に入れたような状態です。(※まれに見当違いのアウトプットもあるけど)

その結果、これまでは技術的な制約から「理想ではあるけれど、現実的・常識的には提供できない」とされていた体験の一部が、AIによって実現可能になりつつあります。

そうすると改めて重要になるのが、そもそも理想的な体験は何かを解像度高く捉えることです。

たとえできることが増えたとしても、何を実現したいのかが曖昧なままだと、AIをどこにどう使うべきかも分かりませんし、ユーザーにとっての価値もぼやけてしまうからです。

その中で私は、サービスの提供価値を考えるときに、「もしお金も時間も体力も無限にあったら、ユーザーが本来取りたい選択肢は何か」と考えることがあります。

例えば英語学習であれば、今すぐ仕事も家庭も放り出して留学(または移住)に行き、英語を話さざるを得ない環境に身を置くことが、最も手っ取り早い方法なのではないでしょうか。

一方で、当然ながら誰もがその選択肢を取れるわけではありませんし、そうした理想と現実のギャップを埋めるために、さまざまな英語学習サービスが存在しているのだと思います。

そのうえで、AIという技術進化を前提にしたときに、留学や移住という体験をどこまで代替して提供できるのか、という視点で考えてみました。

AIが得意なこととして、文脈の推測やコンテンツ生成、自然言語での対話などが挙げられます。それを踏まえたときにアイデアとして浮かんだのが、「AI英会話バディ」という存在でした。 例えば海外を旅行するときに、あなた一人ではなく、だれか英語の得意な友達が隣にいて、少し詰まったときに伝え方を教えてくれたり、アドバイスしてくれたりする存在がいたら、より安心感を持って話せるのではないか。 さらに、隣で自分を見てくれている存在が、都度、自分に合わせた「お出かけ先や出来事」を考えてくれて、「自分が話したいこと」に沿ってパーソナライズされた英会話ができたら、実際に英語圏に身を置いた状態には至らずとも、より楽しく、学びになる体験になるのではないかと考えました。

ざっくりとサービスコンセプトが見えてきた段階から、プロトタイプを通じて体験を検証していくフェーズに移りました。

特に英会話アプリの場合、体験の中心になるのは「音声によるコミュニケーション」です。そのため、最初から画面設計や機能実装を進めるのではなく、「実際にどんな音声会話体験になるのか」を段階的に確かめながら検証を進めていきました。

体験の中心は音声によるコミュニケーションなので、そこに最適化してプロトタイピングする

最初に行ったのは、英会話の実際のやり取りの肌感を掴むことでした。 私自身は英語を話せるわけではないため、そもそも英会話を学ぶとはどんな体験なのか、どう教えてもらえると分かりやすいのかを知るために、英語が堪能なPdMにフリートーク形式での英会話を即興で指導してもらいました。

他にも、PCを2台向かい合わせに並べて、AIエージェント同士に音声会話をさせる実験もしてみました。これは、当初のアイデアとして考えていた「自分 + バディ(AI) + 会話相手(AI)」での会話体験が成立するのかを確かめるためのものでしたが、実際に試してみると、思っていた以上に自然に会話が成り立つことが分かりました。

次に着手したのが、ラジオドラマ形式のプロトタイプです。

具体的には、oleloを使ったときに発生する理想的な英会話の流れを想像しながら台本を書き、TTS(Text-to-Speech)サービスで音声を生成し、それらを組み合わせて会話の流れをラジオドラマとして再現しました。

はじめにラジオドラマ形式を選んだ理由は、先述の通り「音声によるコミュニケーション」が体験の中心であるため、というのが一つあります。プロトタイプ段階では体験の本質的な部分だけを抽出できれば良いと考えると、ラジオドラマ形式がちょうど良いと判断しました。

もう一つは、最初からAIエージェントとの会話で検証しようとしても、あまりにも自由度が高く、理想的なコミュニケーションそのものを検証するのが難しいと考えたからです。

次に、ラジオドラマに合わせたUIをFigmaでつくり、動画形式のプロトタイプを制作しました。

実際のプロトタイプはこちらです。軽く補足をすると、以下のような設定となっています

  • Lanaというバディと一緒にカフェに行くという場面設定

  • まずはホットラテを注文するというミッションが与えられる

  • 自分・Lana・カフェ店員の3者で会話を進めていく形式

  • もし自分が話すターンで詰まってしまったらLanaがヘルプをくれる

oleloの初期プロトタイプ( ※音声をONにすると会話を聞くことができます )

あくまでプロトタイプ段階ではありますが、視覚的なインターフェースのイメージも加わることで、つくりたい体験の輪郭がチーム内でも徐々に明確になっていきました。

その後、実際にAIと会話できるコードベースのプロトタイプを作成しました。

この段階では、生成されたシナリオに沿った英会話や、AIとの音声でのやり取りが実際のプロダクトとして成立するのかを確認しながら、体験の流れを検証していきました。

コードベースのプロトタイプ (※ 音声をONにすると会話を聞くことができます)

補足としてoleloの開発初期は、AIを前提としたプロダクト開発の事例がまだ少ない時期でしたが、oleloをはじめとしたAIプロダクトの開発を通じて検証が進み、開発プロセス自体も更新されていきました。

例えばAIイノベーション事業本部では、企画段階で要件定義書だけでなく「生成AIを使ったプロトタイプ」を必須化したり、各メンバーが自律的にAIを活用してプロトタイプを作成したりするなど、開発プロセスも大きく変化しています。

oleloのようにAIを組み込んだプロダクトを設計する際には、AIをプロダクトのどこに、どのように組み込むのかが重要な観点の一つになります。私たちは大きく分けて、AIの取り入れ方には2つのパターンがあると考えています。

oleloには、ユーザーの目標設定に応じて、パーソナライズされたシナリオを生成する機能があります。

例えば自己紹介などの定番トークだけでなく、「デザインシステムに関する議論」「海外投資家対応」「外国人観光客の接客」など、よりニッチな場面での英会話シナリオも生成できるようにしています。

これは、ユーザーにとって「本当に話したいことを話せる」体験を実現したいと考えたためです。

例えば、「街でふと外国人観光客に話しかけられたときにうまく応えたい」「海外の研究開発機関で、専門用語を交えて話したい」など、人それぞれに英語を話したい理由や話したい内容があります。そうした個別のニーズに対して、AIを活用することで柔軟に応えられないかと考えました。

このシナリオ生成機能は、AIの推論能力を活かしながら、「本当に話したいことを話せる」というoleloのコアな価値を支える機能でもあります。

さらに、ユーザーの学習状況をAIが解析し、情報を蓄積することで、よりパーソナライズした学習環境を提供できるようになり、体験価値が継続的に高まっていくフィードバックループが回る構造になっています。

このように、プロダクトのコアサイクル自体にAIを組み込む考え方を、AIイノベーション事業本部では「AIネイティブ度が高いプロダクト」と捉え、複数のプロダクト立ち上げを進めています。oleloもその一つとして、AIネイティブ度の高いプロダクトの成功例になれるよう、検証を続けています。

もう一つの使い方は、特定機能の体験価値を高める“部品”としてAIを組み込むことです。

oleloでは、ユーザーの回答に対する正誤判定やフィードバックの機能がその例として挙げられます。

これまでの英会話アプリでは、予め用意された回答に合っているかどうかで正誤判定される場合が多くありましたが、oleloでは、多少文法や発音が崩れていても、文脈を踏まえて「伝わっているかどうか」を判断し、フィードバックを返すようにしています。

人と人とのコミュニケーションでも、必ずしも完璧な英語で話せているかどうかより、「意図が伝わっているかどうか」の方が重要な場面は多いはずです。

そうした実際のコミュニケーションに近い体験を再現するために、柔軟な判定やフィードバックができる形でAIを組み込むという判断をしました。

アプリ版のMVPができた後は、社内テストの期間を設けました。その中で、シナリオ生成やAIエージェントとの対話など、新しい体験に対してはポジティブな反応が得られた一方で、「最初は頑張って使うものの、なかなか継続しない」という傾向も見えてきました。

そこで、「英語を学んで何を実現したいのか」というユーザー自身の目的を、より明確にする必要があることに気づきました。ユーザーがやりたいことをアプリ上でうまく探り当てるにはどうしたらいいかを、AIエンジニアと試行錯誤しながら検討していきました。

その結果、目標設定からシナリオ生成に至るまでのフローを改善することにしました。

もともとシナリオ生成は、場面や相手の役割などの詳細情報をユーザーが直接入力して作る形式でしたが、もうちょっと大きなテーマとなりうる目標を設定することで、それに基づいた複数のチャプターをまとめて生成する仕組みに変更しました。さらに、ユーザーが入力した目標が曖昧な場合には、AIが追加の質問を通じて内容を深掘りし、より具体的な目標になるようアシストしてくれます。

こうして、人それぞれの「本当に話したいこと」に応えられるようにするとともに、そもそも「何のために話したいのか」も明確にできるよう、AIを活用しながら体験をブラッシュアップしていきました。

AIを組み込むことで、新たな英会話学習体験をつくるチャレンジとして生まれたolelo。現時点ではまだまだ改善点も多くありますが、これまでにない体験の片鱗を感じられる状態になっていると思うので、ぜひ一度触ってみてもらえたら嬉しいです。

長らく顧客視点でのものづくりに向き合ってきた自分にとっても、AIを前提にしたプロダクトづくりには新鮮さがありました。

AIをプロダクトに組み込むと、機能として提供できることは確かに増えます。ただ、その時に改めて問われるのは、「結局、どんな体験をつくりたいのか」という方向性の判断です。

実際に検証を進めていると、「今はまだここまでしかできないのか」と感じることもあれば、逆に「こんなことまでできるのか」と、自分たちの想像を超えてくることもあります。

そうした時に、自分たちなりの狙いを持って判断できなければ、色々と便利ではあるものの、価値が曖昧なプロダクトに仕上がってしまいます。

だからこそ、AIもあくまで手段の一つとして捉えたうえで、「本来ユーザーが求めているものは何だったのか」に立ち返りながら、それをどうすれば良い体験として落とし込めるのかを地道に検証し続けることが、これまで以上に大切になってくるのではないかと思います。

これからも、新しい技術やプロセスを取り入れながら、今までにないプロダクト体験を届けられるように取り組んでいきたいと思います。

このデザイン組織をもっと知る