Aglaia移动视觉公司已利用复杂的环境模型开发出了OFP中心组件。开发人员利用OFP可视化可以了解车辆如何对整个环境进行感知,并据此决定如何对传感器数据进行合并。所有功能都可以按这种方式进行编程,无论是复杂的驾驶辅助功能或全自动驾驶功能。Schilling博士提到, “这将加快开发进程,并催生更多功能,从而让自动驾驶功能更早进入中端车领域。”
本项目结果后,对OFP的研究还会继续。面临的关键问题是,如何利用机器学习来处理传感器数据,以便改善功能并加快开发过程。停车场场景也将扩展到市区驾驶环境及高于20 km/h的普通驾驶环境。这些场景需要与其它传感器进行互动,如LiDAR传感器。通过这种多传感数据融合,OFP可以全面发挥其潜能。另外,后续的开发将专注于功能安全,以确保所有开发的功能能保证并维护故障安全。