• I am ...

    Yuki Okafuji / 岡藤 勇希

    Ph. D. in Engineering / 博士(工学)

     

    Research Scientist at CyberAgent AI Lab

    株式会社サイバーエージェント AI Lab、リサーチサイエンティスト

    E-mail: okafuji_yuki_xd [at] cyberagent.co.jp

     

    and

     

    Visiting Associate Professor at Ritsumeikan University, Playful Lab
    立命館大学 プレイフルインタラクション研究室、客員研究准教授

    E-mail: yokafuji [at] fc.ritsumei.ac.jp

     

    and

     

    Visiting Researcher at Osaka University, Intelligent Robotics Lab

    大阪大学 石黒研究室、招へい研究員

    E-mail: okafuji.yuki [at] irl.sys.es.osaka-u.ac.jp

  • RESEARCH on Vehicle Control / Driving Behavior

    Automated driving control based on optical flow

     

    オプティカルフローによる自動運転制御手法の構築

    In order to construct human-like automated driving systems, we focused on optical flow that is a velocity vector generated by the surrounding environment. Humans can perceive the direction of self-motion based on optic flow, and they can track a target path by matching their direction to a point of "they want to go" on the target path. This is a human (animal)-like control method. Therefore, we modeled optic flow generated by the vehicle state and we verified that the modeling result can strictly reflect the direction of self-motion that has been only verified through the experiments. Then, we introduced a mathematical model of optic flow into the vehicle steering control based on a nonlinear control method in order to construct human-like control method. From the results of the simulations and vehicle experiments, we confirmed this method is effective for the automated steering controller and can reproduce human's steering behaviour in terms of steering accuracy.

    Examine the influence of optic flow for driving behavior

     

    ドライバの運転行動に影響するオプティカルフローに関する研究

    From the results of our proposed automated driving control method, we got a hypothesis: the usefulness of a region of optic flow (for instance, far and near, or central and peripheral vision) for driver's steering behavior is not consistent. Then, we made a unique simulation environment that can selectively mask either the optic flow or the road edge information to analyze driving behavior. Then, we verified how this two information affects the steering performance of the driver within the scope of Two-point steering model. Amazingly, a part of the results is the same as the results produced by the optical flow control. This conclusion could give us some intuition: driver models capturing driver characteristics can figure out new driver behavior even if we do not conduct the psychological experiments.

    Analyzing the driver's gaze behavior

     

    ドライバの注視行動の解明

    Drivers’ gaze behaviors in naturalistic and simulated driving tasks have been investigated for decades. Many research studies focus on the road geometrical environment to explain a driver’s gaze. On the other hand, we focused on vehicle states such as optical flow and the vehicle position to explain the driver's gaze behavior. We show that drivers' gaze strategy can be interpreted by optical flow theory that is a method to quantify the extent to which they can perceive the future path of the vehicle. In addition, we assume that the drivers' gaze behavior is influenced by two aspects: the importance of Lane Keeping and Route Prediction. Then, we modeled the driver's gaze behavior in order to apply for constructing advanced intelligent vehicle systems. The results can simulate the driver's gaze behavior.

    Investigation of visual region influencing driving behavior using machine learning

     

    機械学習を用いたドライバの運転行動に影響する視覚情報の解明

    One aspect of the drivers' cognitive behavior is to understand what information in which visual regions are used for steering/throttle control. In previous research, these behaviors were analyzed using a special simulator environment. Therefore, we proposed a CNN model with human physical characteristics, which can analyze cognitive behavior in a real environment. We have established a new method for human analysis by verifying that the analytical results by the proposed model can correctly reflect human cognitive behavior even in machine learning models that are considered to be black boxes.

  • RESEARCH on Human Robot Interaction

    Human motion prediction to reduce mechanical delays of robot

     

    ロボットの機械的遅れを軽減させるための人物行動の予測

    Face-to-Face contact is an important functional behavior for Humanoid robots. However, it is difficult due to the mechanical delay to generate Face-to-Face contact without delay. So, we make robot motion with little/no delay during face-to-face contact using the predicted human face position by both of the fast machine learning methods and conventional image processing methods.

    Robot behavior to stop pedestrians in commercial facilities

     

    商業施設において通行人を立ち止めるためのロボット動作の研究

    In order to spread the robot in the real world, it is necessary to create a robot that can be used by humans. However, it is known that even if a robot is implemented in a real environment, robots tend to be ignored. Therefore, we installed a robot in a shopping mall and investigated what kind of robot behavior could attract a passerby and stop the passerby.

    Persistence of persuasion strategy of robots through long-term period

     

    長期間に渡るロボットの説得力の研究

    TBR

  • PROFESSION / EDUCATION

    Profession

    • June 2017 - November 2017, Visiting Researcher, University of Leeds, UK
    • August 2018 - September 2018, Research Intern, CyberAgent AI Lab | 研究インターン,株式会社サイバーエージェント AI Lab
    • April 2018 - September 2018, JSPS Research Fellow (DC2), Kobe University | 日本学術振興会 特別研究員(DC2)(受入研究機関:神戸大学)
    • October 2018 - March 2019, JSPS Research Fellow (PD), Ritsumeikan University | 日本学術振興会 特別研究員(PD)(受入研究機関:立命館大学)
    • October 2018 - March 2019, Research Scientist, CyberAgent AI Lab | リサーチサイエンティスト,株式会社サイバーエージェント AI Lab
    • November 2018 -March 2019, Visiting Researcher, Osaka University | 招へい研究員,大阪大学
    • April 2019 - March 2022, Assistant Professor, Ritsumeikan University | 助教,立命館大学
     
    • April 2022 - current, Research Scientist, CyberAgent AI Lab | リサーチサイエンティスト、株式会社サイバーエージェント AI Lab
    • April 2022 - current, Visiting Associate Professor, Ritsumeikan University | 客員准教授、立命館大学
    • April 2022 - current, Visiting Researcher, Osaka University | 招へい研究員,大阪大学

    Education

    • April 2007 - March 2012, Associate's Degree, Department of Mechanical and Electrical Engineering, National Institute of Technology, Tokuyama College, Japan | 徳山工業高等専門学校 機械電気工学科
    • April 2012 - March 2014, Bachelor's Degree, Department of Mechanical Engineering, Faculty of Engineering, Kobe University, Japan | 神戸大学 工学部機械工学科
    • April 2014 - September 2015, Master's Degree, Department of Mechanical Engineering, Graduate School of Engineering, Kobe University, Japan | 神戸大学 工学研究科機械工学専攻 修士課程
    • October 2015 - September 2018, Ph. D. Degree, Department of Mechanical Engineering, Graduate School of Engineering, Kobe University, Japan | 神戸大学 工学研究科機械工学専攻 博士課程

     

    • April 2016 - September 2018, Research Student, Graduate School of Science and Engineering, Ritsumeikan University, Japan | 立命館大学 理工学研究科 特別研究学生
    • September 2016 - February 2017, Visiting Research Student, Institute for Transport Studies, Faculty of Environment, University of Leeds, UK
  • PUBLICATION

    Journal

    1. Y. Okafuji, T. Ishikawa, K. Matsumura, J. Baba, J. Nakanishi, “Pseudo-eating behavior of service robot to improve the trustworthiness of product recommendations,” Advanced Robotics (to appear)
    2. Sichao Song, Jun Baba, Yuki Okafuji, Junya Nakanishi, Yuichiro Yoshikawa, Hiroshi Ishiguro, “Wingman-Leader Recommendation: An Empirical Study on Product Recommendation Strategy Using Two Robots,” IEEE Robotics and Automation, Vol. 9, No. 3, pp. 2272-2278, 2024
    3. Yuki Okafuji, Sichao Song, Jun Baba, Yuichiro Yoshikawa, Hiroshi Ishiguro, “Influence of collaborative customer service by service robots and clerks in bakery stores,” Frontiers in Robotics and AI, Vol. 10, 2023
    4. C. Zhang, D. Deguchi, Y. Okafuji, H. Murase, “More Persuasive Explanation Method For End-to-End Driving Models,” IEEE Access, vol. 11, pp. 4270-4282, 2023
    5. 岡藤勇希,牧田昌大,松村耕平,馬場惇,中西惇也,”公共空間のロボット利用時における恥ずかしさの発生要因とロボット利用への影響の調査”,情報処理学会論文誌特集「インタラクションの理解および基盤・応用技術」, Vol. 64, No. 2, pp. 366-376, 2023
    6. 岸本和大,松村耕平,川口一画,岡藤勇希,”ディスプレイ中の顔画像の方向推定における表示人数や立ち位置の影響に関する調査”,情報処理学会論文誌特集「インタラクションの理解および基盤・応用技術」, Vol. 64, No. 2, pp. 326-335, 2023
    7. J. Amada, Y. Okafuji, K. Matsumura, J. Baba, J. Nakanishi, “Investigating the Crowd-drawing Effect, on Passersby, of Pseudo-Crowds Using Multiple Robots,” Advanced Robotics, vol. 37, no. 6, pp. 423-432, 2023
    8. Y. Yamaguchi, Y. Okafuji, T. Wada, K. Murakami, H. Ishida, “Estimation of Drivers’ Gaze Behavior by Potential Attention when using Human–Machine Interface,” IEEE Access, vol. 11, pp. 16723-16734, 2023
    9. [arXiv] Y. Okafuji, Y. Ozaki, J. Baba, J. Nakanishi, K. Ogawa, Y. Yoshikawa, H. Ishiguro, “Behavioral assessment of a humanoid robot when attracting pedestrians in a mall,” International Journal of Social Robotics, vol. 14, pp. 1731-1747, 2022, DOI: 10.1007/s12369-022-00907-9
    10. 山口遊,岡藤勇希,和田隆広,村上一臣,石田裕之,”路面描画に影響されるドライバの注視特性の検証”,自動車技術会論文集,Vol. 52, No. 5, pp. 1137-1142, 2021, DOI: 10.11351/jsaeronbun.52.1137
    11. Y. Okafuji, T. Sugiura, R. Osugi, C. Zhang, and T. Wada, “A machine learning-based approach to analyze information used for steering control,” IEEE Access, vol. 9, pp. 94239-94250, 2021
    12. C. Zhang, Y. Okafuji, and T. Wada, “Reliability evaluation of visualization performance of convolutional neural network models for automated driving,” International Journal of Automotive Engineering, Vol. 12, No. 2, pp. 41-47, 2021, DOI: http://doi.org/10.20485/jsaeijae.12.2_41
    13. 尾杉竜正,岡藤勇希,和田隆広,”深層学習を用いた車両の速度制御に関するドライバの認知特性の解析”,自動車技術会論文集,Vol. 52, No. 2, pp. 355-362, 2021, DOI: 10.11351/jsaeronbun.52.355
    14. Y. Okafuji, T. Fukao, “Theoretical interpretation of drivers' gaze strategy influenced by optical flow,” Scientific Reports, 11, 2389, 2021, DOI: 10.1038/s41598-021-82062-1
    15. Y. Okafuji, J. Baba, J. Nakanishi, I. Kuramoto, K. Ogawa, Y. Yoshikawa, H. Ishiguro, “Can a humanoid robot continue to draw attention in an office environment?,” Advanced Robotics, Vol. 34, No. 14, pp. 931-946, 2020, DOI: 10.1080/01691864.2020.1769724
    16. Y. Okafuji, C. D. Mole, N. Merat, T. Fukao, Y. Yokokohji, H. Inou, and R. M. Wilkie, “Steering bends and changing lanes: the impact of optic flow and road edges on two point steering control,” Journal of Vision, Vol. 18. No. 14, 2018, DOI: 10.1167/18.9.14
    17. Y. Okafuji, T. Fukao, Y. Yokokohji, H. Inou, “Design of a preview driver model based on optical flow,” IEEE Transaction on Intelligent Vehicles, Vol. 1, No. 3, pp.266-276,2016, DOI: 10.1109/TIV.2017.2658188
    18. Y. Okafuji, T. Fukao, H. Inou, “Development of automatic steering system by modeling human behavior based on optical flow,” Journal of Robotics and Mechatronics, Vol. 27, No. 2, pp.136-145, 2015, DOI: 10.20965/jrm.2015.p0136
    19. 伊能寛,深尾隆則,戸塚誠司,岡藤勇希,”オプティカル・フロー・モデルを利用した操舵制御システムの開発”,自動車技術会論文集,Vol. 46, No. 2, pp.443-448, 2015, DOI: 10.11351/jsaeronbun.46.443

    International Conference

    1. [Oral] Y. Okafuji, Y. Mitsui, K. Matsumura, J. Baba, J. Nakanishi, “Changes in Embarrassment Through Repeated Interactions with Robots in Public Spaces,” IEEE International Conference on Robot & Human Interactive Communication (RO-MAN), Virtual Conference, August 2023
    2. [Oral] Y. Chamoto, Y. Okafuji, K. Matsumura, J. Baba, J. Nakanishi, “Investigating the Influence of Task-dependent and Task-independent Robot Behavior on the Impression of Robots and the User Experience,” IEEE International Conference on Robot & Human Interactive Communication (RO-MAN), Virtual Conference, August 2023
    3. [Oral] S. Song, J. Baba, Y. Okafuji, J. Nakanishi, Y. Yoshikawa, H. Ishiguro, “Out for In!: Empirical Study on the Combination Power of Two Service Robots for Product Recommendation,” ACM/IEEE International Conference on Human-Robot Interaction, 2023
    4. [Poster] Y. Tamaru, Y. Ozaki, Y. Okafuji, J. Baba, J. Nakanishi, Y. Yoshikawa, “3D Head-Position Prediction in First-Person View by Considering Head Pose for Human-Robot EyeContact,” ACM/IEEE International Conference on Human-Robot Interaction LBR (HRI), Virtual Conference, March 2022 [arXiv]
    5. [Oral] Y. Okafuji, J. Baba, J. Nakanishi, J. Amada, Y. Yoshikawa, H. Ishiguro, “Persuasion Strategies for Social Robot to Keep Humans Accepting Daily Different Recommendations,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), Virtual Conference, September 2021
    6. [Oral] J. Amada, Y. Okafuji, T. Wada, J. Baba, J. Nakanishi, Y. Yoshikawa, “Behavioral Changes in Passersby by Expanding Embodiment of a Calling Robot,” IEEE International Conference on Robot & Human Interactive Communication (RO-MAN), Virtual Conference, August 2021
    7. [Oral] C. Zhang, Y. Okafuji, T. Wada, “Evaluation of visualization performance of CNN models using driver model,” IEEE/SICE International Symposium on System Integration (SII), Virtual Conference, January 2021
    8. [Oral] Y. Okafuji, T. Sugiura, T. Wada, “Preliminary investigation of visual information influencing driver’s steering control based on CNN”, IEEE International Conference on Systems, Man, and Cybernetics (SMC), Virtual Conference, October 2020
    9. [Oral] R. Ukita, Y. Okafuji, T. Wada, “A simulation study on lane-change control of automated vehicles to reduce motion sickness based on a computational model”, IEEE International Conference on Systems, Man, and Cybernetics (SMC), Virtual Conference, October 2020
    10. [Oral] T. Wada, J. Kawano, Y. Okafuji, A. Takamatsu, M. Makita, “A computational model of motion sickness considering visual and vestibular information”, IEEE International Conference on Systems, Man, and Cybernetics, Virtual Conference (SMC), October 2020
    11. [Oral] Y. Okafuji, T. Wada, T. Sugiura, K. Murakami, H. Ishida, “Drivers' gaze behaviors are influenced by vehicle position”, 64th Annual Meeting of Human Factors and Ergonomics Society (HFES), Virtual Conference, October 2020
    12. [Poster] Y. Okafuji, Y. Ozaki, J. Baba, A. Kitahara, J. Nakanishi, K. Ogawa, Y. Yoshikawa, H. Ishiguro, “Please listen to me: How to make passersby stop by a humanoid robot in a shopping mall”, ACM/IEEE International Conference on Human-Robot Interaction LBR (HRI), Cambridge, UK, March 2020
    13. [Oral] Y. Okafuji, T. Fukao, H. Inou, “Theoretical interpretation of driver’s gaze considering optic flow and seat position”, IFAC Symposium on Analysis, Design, and Evaluation of Human-Machine Systems (IFAC-HMS), Tallinn, Estonia, September 16-19, 2019
    14. [Oral] C. Mole, G. Markkula, O. Giles, Y. Okafuji, R. Romano, N. Merat, R. Wilkie, “Drivers fail to calibrate to optic flow speed changes during automated driving”, Driving Assessment Conference, New Mexico, USA, June 24-27, 2019
    15. [Demo] Y. Okafuji, J. Baba, J. Nakanishi, “Face-to-Face contact method for humanoid robots using face position prediction”, ACM/IEEE International Conference on Human-Robot Interaction (HRI), Daegu, Korea, March 2019
    16. [Oral] Y. Okafuji, C. D. Mole, R. M. Wilkie, N. Merat, “Examining how driver steering behaviour is affected by optic flow after resuming control from a highly automated vehicle”, The Human Factors and Ergonomics Society Europe Annual Meeting (HFES Europe), Rome, Italy, September 2017
    17. [Oral] Y. Okafuji, T. Fukao, Y. Yokokohji, H. Inou, “Optical flow-based control for automatic steering systems”, 2015 IEEE/SICE International Symposium on System Integration (SII2015), Japan, December 2015, DOI: 10.1109/SII.2015.7405027 (Best Paper Award Finalist)
    18. [Oral] H. Inou, T. Fukao, S. Totsuka, Y. Okafuji, “Development of automatic steering system based on optical flow model”, 12th International Symposium on Advanced Vehicle Control (AVEC’14), Japan, September 2014

    Preprint

    1. T. Sakaguchi, Y. Okafuji, K. Matsumura, J. Baba, J. Nakanishi, An Estimation Framework for Passerby Engagement Interacting with Social Robot,” arXiv:2206.02394, 2022

    Invited Talks

    1. 岡藤勇希,”接客対話ロボットの実社会普及を目指して”,産業技術総合研究所 人工知能研究センター「HCI×AI:人工知能で進化するHCI研究の最前線,2023年7月
    2. 岡藤勇希,”実社会で活動するサービスロボットの研究”,ふれデミックカフェ クロストーク編「ヒトの行動を理解するということは? ~ウェアラブルデバイスやロボットとの共生で、より良い社会実現に向けて~」@京都リサーチパーク(KRP),2022年5月
    3. 岡藤勇希,”実社会で活動するサービスロボットの研究”,ふれデミックカフェ@京都リサーチパーク(KRP),2020年11月
    4. 岡藤勇希,”Convolutional Neural Networkを用いたドライバ操舵に影響する視覚情報の理解”,自動車技術会ヒューマンファクター部門委員会「ヒューマンファクター研究最前線」,2020年8月
    5. 岡藤勇希,”オプティカルフロー理論に基づいたドライバの注視点の解明”,自動車技術会 車両運動性能委員会,2020年1月
    6. 岡藤勇希,”オプティカルフローに着目した自動車制御と人間の行動解析”,日本バーチャルリアリティ学会 第14回テレイグジスタンス研究会,2019年7月
    7. 岡藤勇希,”オプティカルフローに基づいたドライバモデル・ドライバの特性解析に関する研究”,自動車技術会 第5回ヒューマンファクター部門委員会,2018年12月

    Technical Report

    1. 岡藤勇希,” 自動/手動運転の切り替わり時におけるオプティックフローに影響されるドライバの操舵特性の解析”, 神戸大学大学院工学研究科・システム情報学研究科紀要,第9号,2017
    2. 伊能寛,深尾隆則,戸塚誠司,岡藤勇希,”オプティカル・フロー・モデルを利用した操舵制御システムの開発”,デンソーテクニカルレビュー,Vol. 20, pp.123-130, 2015

    Domestic Conference (in Japan)

    1. [Oral] 中西惇也,三好遼岡藤勇希,馬場惇,吉川雄一郎,石黒浩,”対話中の能動的発話を含む発話タイミングの学習の検討”,人工知能学会全国大会,2024年5月
    2. [Oral] 岸田裕大,西村拓海,松村耕平,岡藤勇希,”オンライントレーニングにおいて匿名性を保ったまま集団を意識付ける手法の提案”,インタラクション2024,2024年3月(優秀論文賞)
    3. [Demo] 馬場惇、岡藤勇希、大平義輝、兵頭亮哉、猪狩大輔、マルチモーダル入力からリアクティブな行動と応答発話の制御を両立する音声対話基盤の開発”,第14回対話システムシンポジウム,2023年12月
    4. [Oral] 岡藤勇希,岩本拓也,宋思超,”実社会における対話型販売ロボット設計の非効果的パターンの探索”,日本ロボット学会学術講演会,2023年9月
    5. [Oral] 岩本拓也,岡藤勇希,宋思超,馬場惇,中西惇也,吉川雄一郎,石黒浩,”複数種類のロボットによる分業推薦の実践的検討”,日本ロボット学会学術講演会,2023年9月
    6. [Poster] Yang Guang,櫻井翔,松村耕平,岡藤勇希,”バーチャルライブにおけるアバタの動作を通じた観客同士のインタラクションが臨場感に与える影響”,バーチャルリアリティ学会大会,2023年9月
    7. [Poster] 渡邊将太,松村耕平,岡藤勇希,沓澤岳,小林吉之,”絵文字を用いた感情報告による経験サンプリング法の提案”,インタラクション2023,2023年3月
    8. [Poster] 鳥居陽香,松村耕平,岡藤勇希,”VRゲームにおいて視点の違いがVR酔いに与える影響の検討”,インタラクション2023,2023年3月
    9. [Poster] Yang Guang,松村耕平,岡藤勇希,”バーチャルライブにおけるアバタの動作を通じた観客同士のインタラクションが臨場感に与える影響”,インタラクション2023,2023年3月
    10. [Poster] 天田穣一朗,岡藤勇希,松村耕平,馬場惇,中西惇也,”公共空間における接客機会の増加を目的とした複数ロボットによる呼びかけ戦略の提案”,HAIシンポジウム,2023年3月
    11. [Poster] 石川拓海,岡藤勇希,松村耕平,馬場惇,中西惇也,”ロボットの擬似的な食事行動がユーザーの購買行動に与える影響の検証”,HAIシンポジウム,2023年3月
    12. [Poster] 茶本有記,岡藤勇希,松村耕平,馬場惇,中西惇也,”ロボットのタスク依存・非依存の行動が及ぼすロボットの印象やユーザ体験への影響の調査”,HAIシンポジウム,2023年3月
    13. [Poster] 三井優弥,岡藤勇希,松村耕平,馬場惇,中西惇也,”視界制限によるロボット利用時の恥ずかしさ軽減手法の提案”,HAIシンポジウム,2023年3月
    14. [Poster] 服部健心,松村耕平,岡藤勇希,”対話形式が時間経過に伴って敬体から常体へと変化する音声アシスタントがユーザに与える印象の調査”,HAIシンポジウム,2023年3月
    15. [Poster] 若林大聖,松村耕平,岡藤勇希,”複数人が同時利用するテレプレゼンスロボットの効果的に視線提示を行う手法の提案”,HAIシンポジウム,2023年3月
    16. [Poster] 渡邊将太,松村耕平,岡藤勇希,沓澤岳,小林吉之,”絵文字による感情の振り返りはWell-beingの向上につながるか:スマートウォッチによる感情測定システムの実装”,情報処理学会IoT行動変容学研究グループ 第2回研究会,2022年11月
    17. [Poster] 福西誠樹,岡藤勇希,松村耕平,”指導する情報量が初心者のスポーツ走行学習に与える影響の評価”,自動車技術会秋季大会学生ポスターセッション,2022年10月
    18. [Oral] 河野隼一郎,松村耕平,岡藤勇希,”時間的余裕度を考慮したナビゲーションインターフェースの提案”,エンタテインメントコンピューティング,2022年10月
    19. [Oral] 加藤祐樹,松村耕平,岡藤勇希,”サムネイル画像を漫画に置き換えたアニメのシーン探索手法の改善と評価”,エンタテインメントコンピューティング,2022年9月
    20. [Poster] 天田穣一朗,岡藤勇希,松村耕平,馬場惇,中西惇也,”複数ロボットを用いた擬似的な人だかりによる集客効果の検証”,HAIシンポジウム,2022年3月(優秀論文賞(ショート))
    21. [Poster] 坂口太一,岡藤勇希,松村耕平,馬場惇,中西惇也,”ロボットとインタラクションを行う通行人のエンゲージメントモデリング”,HAIシンポジウム,2022年3月
    22. [Poster] 牧田昌大,岡藤勇希,松村耕平,馬場惇,中西惇也,”公共空間において恥ずかしさがロボットの利用に与える影響の調査”,HAIシンポジウム,2022年3月(優秀論文賞(ショート))
    23. [Oral] 藤本遼太,岡藤勇希,松村耕平,”インタラクションゲームを用いた自動運転中におけるドライバの周辺環境の注意力の向上”,情報処理学会 ヒューマンコンピュータインタラクション研究会,2022年1月
    24. [Oral] 岡藤勇希,山口遊,和田隆広,村上一臣,石田裕之,”Potential Attentionを用いたHMI使用時のドライバの注視推定”,自動車技術会秋季大会学術講演会,2021年10月
    25. [Oral] 伊藤智樹,岡藤勇希,和田隆広,”主成分分析を用いたドライバの注視位置推定”,自動車技術会秋季大会学術講演会,2021年10月
    26. [Oral] 山口遊,岡藤勇希,和田隆広,村上一臣,石田裕之,”路面描画に影響されるドライバの注視特性の検証”,自動車技術会春季大会学術講演会,2021年5月
    27. [Oral] 天田穣一朗,岡藤勇希,和田隆広,馬場惇,中西惇也,吉川雄一郎,”呼びかけロボットの身体性拡張による通行人の行動促進”,HAIシンポジウム,2021年3月
    28. [Poster] 河野隼一郎,和田隆広,岡藤勇希,高松敦,牧田光弘,”視覚運動と頭部運動を入力とする動揺病計算モデル”,計測自動制御学会 システム・情報部門 学術講演会(SSI),2020年10月
    29. [Oral] 岡藤勇希,和田隆広,村上一臣,”予測-車線維持を考慮したポテンシャルによるドライバの注視行動の理解”,自動車技術会秋季大会学術講演会,2020年10月
    30. [Oral] 尾杉竜正,岡藤勇希,和田隆広,”深層学習を用いた車両の速度制御に関するドライバの認知特性の解析”,自動車技術会秋季大会学術講演会,2020年10月
    31. [Oral] 杉浦敏仁,岡藤勇希,和田隆広,”Convolutional Neural Networkを用いたドライバ操舵に影響する視覚情報の理解”,自動車技術会春季大会学術講演会,2020年5月
    32. [Poster] 浮田凌佑,岡藤勇希,和田隆広,”車両の追従軌道を考慮した動揺病軽減のためのレーンチェンジ軌道生成手法”,計測自動制御学会 システム・情報部門 学術講演会(SSI),2019年11月(研究奨励賞)
    33. [Oral] 岡藤勇希,深尾隆則,”オプティカルフロー理論に基づいたドライバの注視点の解明”,自動車技術会秋季大会学術講演会,2019年10月
    34. [Poster] 岡藤勇希,​馬場惇,中西惇也,倉本到,”ヒューマノイドロボットのための顔位置予測を用いた人の顔追従制御”,HAIシンポジウム,2019年3月(最優秀ポスター賞)
    35. [Oral] 岡藤勇希,深尾隆則,伊能寛,”座席位置の影響を考慮したドライバの注視点に関する理論的解釈”,自動車技術会秋季大会学術講演会,2018年10月​
    36. [Poster]岡藤勇希,深尾隆則,横小路泰義,伊能寛,”車両の横方向制御の相関に関する考察”,ロボティクス・メカトロニクス講演会 (ROBOMECH2017),2017年5月
    37. [Oral]岡藤勇希,深尾隆則,横小路泰義,伊能寛,”オプティカルフローに基づく自動操舵のための実環境計測を考慮したシミュレータ構築”,システム制御情報学会研究発表講演会 (SCI’16),2016年5月(SCI学生発表賞)
    38. [Oral]岡藤勇希,深尾隆則,横小路泰義,伊能寛,”カメラ運動を考慮したオプティカルフローに基づく自動操舵システム”,第58回自動制御講演会,2015年11月
    39. [Oral]岡藤勇希,深尾隆則,横小路泰義,伊能寛,”オプティカルフローに基づいた前方注視モデルの理解と応用”,システム制御情報学会研究発表講演会 (SCI’15),2015年5月(学会賞奨励賞)
    40. [Poster]岡藤勇希,深尾隆則,伊能寛,”オプティカルフローに基づいた自動操舵システム”,ロボティクス・メカトロニクス講演会 (ROBOMECH2014),2014年5月
    41. [Oral] 伊能寛,深尾隆則,戸塚誠司,岡藤勇希,”オプティカル・フロー・モデルを利用した操舵制御システムの開発”,自動車技術会春季講演会,2014年5月(優秀発表賞)

    Other Talks

    1. 兵頭亮哉、 岡藤勇希,”ROS 2 を使用した汎用自律エージェントプラットフォームの開発”,ROSCon JP 2023,2023年9月
    2. 岡藤勇希,”自動運転に向けたドライバの視覚認知特性解明”,「次世代人工知能と記号学の国際融合研究拠点」R-GIRO最終報告シンポジウム,2022年2月
    3. 岡藤勇希,”自動運転に向けたドライバの視覚特性解明”,「次世代人工知能と記号学の国際融合研究拠点」R-GIRO中間報告シンポジウム,2020年2月
    4. Y. Okafuji,”Driving Behavior Analysis based on Psychological Model”, Colloquium in R-GIRO Project AI and Semiotics, December, 2017
  • AWARDS / GRANTS / PATENT

    Awards

    1. March 2019, Most Impressive Poster Award in HAI Symposium 2018 | HAIシンポジウム2018 最優秀ポスター賞
    2. June 2017, Kobe University Outstanding Student Award
    3. May 2016, The Excellent Student Presentation in the 60th Annual Conference of the Institute of Systems, Control, and Information Engineers | 第60回システム制御情報学会研究発表講演会 SCI学生発表賞
    4. May 2016, ISCIE Encouragement Award from the Institute of Systems, Control and Information Engineers | システム制御情報学会賞 奨励賞
    5. March 2016, Miura Prize (Excellent Postgraduate Student Award) from The Japan Society of Mechanical Engineers | 日本機械学会 三浦賞
    6. December 2015, IEEE/SICE International Symposium on System Integration, Best Paper Award Finalist
    7. March 2014, Isamu Yamashita Prize (Excellent Undergraduate Student Award) from The Japan Institute of Marine Engineering | 日本マリンエンジニアリング学会 山下勇賞​

     

    (Co-Author,共著者)

    1. March 2024, Excellent Paper Award in INTERACTION 2024 | インタラクション2024 優秀論文賞(岸田裕大)
    2. March 2022, Impressive Short-Paper Award in HAI Symposium 2022 | HAIシンポジウム2022 優秀論文賞(ショート)(天田穣一朗)
    3. March 2022, Impressive Short-Paper Award in HAI Symposium 2022 | HAIシンポジウム2022 優秀論文賞(ショート)(牧田昌大)
    4. Feb 2020, Excellent poster award in R-GIRO Interim report meeting | 優秀ポスター賞,立命館大学R-GIRO「次世代人工知能と記号学の国際融合研究拠点」 2019年度中間報告シンポジウム(杉浦敏仁)
    5. Nov 2019, SSI Research Encouragement Award in SSI2019 | 計測自動制御学会 システム・情報部門学術講演会2019 研究奨励賞(浮田凌佑)
    6. May 2014, JSAE Annual Congress (spring) Excellent Technical Paper Presentation Awards | 自動車技術会春季講演会優秀発表賞(伊能寛)

    Grants

    Principal Investigator / 研究代表

    1. 2020 - 2023, JSPS Grant-in-Aid for Young Scientists | 科学研究費助成事業 若手研究
    2. 2020 - 2021, SUZUKI FOUNDATION | スズキ財団 若手科学技術研究助成
    3. 2018 - 2019, JSPS Research Fellowship | 日本学術振興会 特別研究員奨励費
    4. 2016 - 2017, Kobe University, Graduate School of Engineering, Premium Program | 神戸大学大学院工学研究科 プレミアム・プログラム

     

    Co-Investigator / 研究分担

    1. 2020 - 2023, Adaptable and Seamless Technology transfer Program through target-driven R& D (A-STEP) | 科学技術振興機構 研究成果最適展開支援プログラム(A-STEP)
    2. 2017 - 2022,立命館大学R-GIRO「次世代人工知能と記号学の国際融合研究拠点」