MITは自動運転車に道路上の人間を精神分析する方法を教えている

2004 年 3 月、米国国防高等研究計画局 (DARPA) は、現世代の自動運転車の可能性 (またはその可能性) をテストするために、特別なグランド チャレンジ イベントを企画しました。 世界トップレベルのA.I.からの参加者 研究室は賞金 100 万ドルを目指して競い合いました。 彼らの特注車両は、カリフォルニアのモハーベ砂漠を通る 142 マイルのルートを自律走行するために最善を尽くしています。 うまくいきませんでした。 「勝利した」チームは、震えながら停止するまで、数時間でわずか 12.4 マイルを移動することができました。 そして発火。

コンテンツ

  • 社会的価値志向
  • ドライバーの行動を予測する

10年半、 すっかり変わってしまった. 自動運転車は実際の道路で数十万マイルの走行に成功しています。 人間が運転する車に乗るよりも、ロボットが運転する車に乗っているほうがほぼ確実に安全であると言っても、異論の余地はありません。 しかし、最終的には道路を走るすべての車が自動運転になる転換点が訪れるでしょうが、 自動運転車が人間が運転する車と道路を共有する必要がある場合、厄介な中間段階になるだろう 車。 このシナリオで問題の当事者となる可能性が高いのは誰であるか知っていますか? そうです、肉付きがよく、予測不可能で、時には用心深く、時には道路で暴れやすい人間です。

西建/ゲッティイメージズ

この問題を解決するために、MIT のコンピュータ サイエンスおよび人工知能研究所 (CSAIL) の研究者たちは、 自動運転車が他のドライバーの「社会的性格」を分類できるようにすることを目的とした新しいアルゴリズムを作成しました。 道。 人間が(多くの場合非科学的に)移動しようとしているときに他のドライバーの反応を確認しようとするのと同じように、 交差点では、自動運転車は交差点での事故を避けるために、誰と取引しているのかを把握しようとします。 道。

関連している

  • サンフランシスコの霧で自動運転車が混乱
  • テスラは完全な自動運転ベータ版が2022年末までに全世界で公開されることを期待している
  • 自動運転車の集団で奇妙なことが起こった

「私たちは社会心理学のツールを意思決定と自動運転車の制御に統合するシステムを開発しました。」 ウィルコ・シュヴァルティングMIT CSAILの研究助手がデジタルトレンドに語った。 「特定のドライバーがどの程度利己的または無私であるように見えるかに関して、ドライバーの行動を推定することができます。 ドライバーのいわゆる「社会的価値観」を推定するシステムの機能により、人間のドライバーの行動をより正確に予測できるため、より安全な運転が可能になります。」

おすすめ動画

社会的価値志向

全体として、私たちの運転フレームワークはかなりうまく機能しています。 あるドライバーを別のドライバーよりも優先したり、進行方向の車線に分割したりするなどです。 しかし、時には高速で操縦を完了するために複数の当事者が努力を調整する方法を見つけなければならない、より主観的な瞬間がまだたくさんあります。 あなたが相手にしているのが、あなたを切り裂こうとするせっかちなドライバーなのか、それとも辛抱強いドライバーなのかを知ること 待つか道を譲るかが、旅が成功するかフェンダーベンダーに苦労するかの違いを意味します。 米国だけでも毎年何十万件もの車線変更、合流、右左折事故が起きているという事実は、人間がこの微妙な技術を完全に習得していないことを示しています。

社会的価値志向は相互依存的な意思決定の分野の一部であり、2 人以上の人々の間の戦略的な相互作用に注目します。 これはゲーム理論に根ざしており、その概念はオスカー モルゲンシュタインとジョン フォン ヴーマンによる 1944 年の著書で初めて概説されました。 ゲーム理論と経済行動.

大まかな考え方は基本的に次のとおりです。エージェントには独自の好みがあり、その好みをその有用性 (満足度) の観点から順序付けることができます。 これらのパラメータ内では、設定に従って論理的に動作します。 ラッシュアワーで道路がどれほど予測不可能に見えても、利他的であることを知ることで、運転行動に変換されます。 あなたの周りのドライバーが社交的、利己的、または競争的である可能性がある場合でも、行動を予測して、問題なく旅行を完了できます。 問題。

自動運転車の社会的行動

MIT アルゴリズムは、他の車の運転方法を観察することにより、「他人への報酬」と「他人への報酬」に関して他のドライバーを評価します。 「自分へのご褒美」の尺度。 それは、路上生活者たちを「利他的」、「向社会的」、「利己的」、「競争的」、「サディスティック」、「サドマゾヒスティック」、「マゾヒスト」、「殉教者」のカテゴリーに分類することを意味する。 他のすべての車が同じように動作するわけではないことを学び、チームは自分たちのモデルが自動運転車システムへの歓迎すべき追加となる可能性があると確信しています。

「私たちはまず、各ドライバーが自分の能力を最大限に発揮しようとする道路シナリオをモデル化してシステムをトレーニングしました。 他のすべてのエージェントの決定を考慮して、最も効果的な対応を分析します。」 シュヴァルティング氏は語った。 「ユーティリティには、ドライバーが自分の利益を他のドライバーの利益に対してどれだけ重み付けし、SVO によって重み付けされるかを組み込んでいます。 他の車からの動きの小さな断片に基づいて、私たちのアルゴリズムは、相互作用中の周囲の車の行動を協力的、利他的、または利己的として予測できます。 私たちは機械学習を使用して実際の運転データに基づいて報酬を調整し、人間のドライバーが快適さ、安全性、または目標への迅速な到着をどの程度重視しているかを本質的にエンコードしました。」

ドライバーの行動を予測する

テストでは、チームはアルゴリズムが他の車の挙動を 25% より正確に予測できることを示しました。 これにより、車両は左折時と対向ドライバーの前で曲がるときのタイミングを認識できるようになりました。

「また、シナリオに応じて自動運転車がどの程度協調的であるべきか、それとも利己的であるべきかを決定することもできます」とシュワーティング氏は続けた。 「過度に保守的に行動することは、人間のドライバーに誤解や混乱を引き起こす可能性があるため、常に最も安全な選択肢であるとは限りません。」

フォルクスワーゲン e-ゴルフ自動運転プロトタイプ ハンブルク

研究チームは、このアルゴリズムはまだ実世界の路上テストのゴールデンタイムに向けた準備ができていないと述べている。 しかし、彼らは開発を続けており、その応用はここで説明したものをさらに超えて広がる可能性があると考えています。 まず、他の車を観察することは、将来の自動運転車が、人間のドライバーにとって理解しやすい、より人間に似た特徴を示すことを学習するのに役立つ可能性があります。

「(さらに)これは完全自動運転車だけでなく、私たちが使用している既存の車にも役立つ可能性があります」とシュワーティング氏は語った。 「たとえば、車が突然あなたの死角に入ってきたと想像してください。 [私たちが開発した]システムを使用すると、死角にいる車に攻撃的なドライバーがいるという警告がバックミラーに表示される可能性があり、これは特に貴重な情報となる可能性があります。」

次に、研究者らはこのモデルを、運転環境に現れる可能性のある歩行者、自転車、その他のエージェントに適用したいと考えています。 「家庭用ロボットなど、私たちと対話する必要がある他のロボットシステムにも目を向けたいと考えています」とシュワーティング氏は述べた。

編集者のおすすめ

  • フォルクスワーゲンは米国で独自の自動運転車試験プログラムを開始する。
  • Appleの噂の車の価格はテスラモデルSと同じになる可能性がある
  • 元Apple従業員、Apple Carの秘密を盗んだ罪を認める
  • 警察官は空の自動運転車を停め混乱する
  • 1986 年に作られた大きな青いバンがどのようにして自動運転車への道を切り開いたのか