EP.2 - 如何「无人驾驶」,从科幻说起
November 17th, 2019
1 hr 11 mins 4 secs
Tags
About this Episode
借着科幻式的推理,神无杨汉那我们三人谈起无人驾驶车的技术困境与科学基础来;末了还作了一番门外汉的伦理探讨。提到技术这个词,你不可避免地想到冰冷繁冗的细节。但技术也是日常的,正是那些习以为常的智慧创造了不假思索的便利。从业已熟悉的车辆道路城市,我们尝试畅想一个无人驾驶的复杂未来:无人车,共生道路,智慧城市。
我们强烈推荐你使用泛用型播客客户端收听我们的节目(如 iOS 系统中,苹果自带播客,Pocket Casts, Overcast, Castro, 或安卓系统中的 AntennaPod)因为这是第一时间听到我们的节目并得到每期完整背景资料的最佳方法。搜索「神经漫游」,你也可以在网易云音乐,喜马拉雅,荔枝 FM,哔哩哔哩和 Spotify 找到我们。
本期纲要
01:57 感官缺失的无人驾驶汽车不懂「做人」
06:68 要达到近人的判断力,机器不必拥有心智理论(ToM)?
18:46 像蚂蚁群落那样开车:群体智慧
28:25 可能最适合「无人驾驶」的道路
33:08 如何减少交通事故中的「人过」
37:32 深度学习不保证可靠性时,只得走人力的捷径
40:49 耗子都能「开车」了,AI 技术怎么回事
44:30 无人驾驶的电车难题无解?不仅是哲学问题
52:10 人与无人车共生于道路;流动空间重构公共生活
55:20 规避道德问题之难,譬如路权
58:20 科幻式反思:隐私 / 人脸识别 / 推荐算法 / 加密软件
科幻节选
延伸阅读
/神无量子提到/
- 会开车的老鼠(果壳)/ 开车老鼠(科普中国)
- 环境丰容(Environmental Richment)不仅对大鼠这类啮齿动物有效果,对灵长类动物也有效果,中国有科学家对动物园里的猩猩做过环境丰容实验,发现环境丰容可以引导其形成一些特定的行为,增加行为的多样性。
- 为什么蚂蚁永远不会“堵车”?
- 集体智能 Collective Intelligence
- 小明不背锅_b站
- ESP 车身电子稳定程序
- ACC 自适应巡航技术
- EPS 传感器
- LKA 车道保持系统
- 燃油喷射系统:机械控制、电动控制、机电混合控制
- 电控汽油喷射系统:隶属于燃油喷射系统的一个子类,现代汽车大部分使用的就是这款技术。可以看出来,无人驾驶其实不仅仅是关乎于算法与识别,系统工程的各方面应用与信息交互也是非常重要的
/汉那提到/
- 2018 年报道 Cruise 无人驾驶汽车缺陷的文章(路透社)指出该车不善判断物体静止与移动。
- 心智理论(Theory of Mind):人类先天能够以类推方式,假定其他人拥有与自己类似的心智,并根据这个假设来观察周围,做出合乎社会期待的反应与行动。原先被认为是人类特有,而后发现灵长类动物也具备简单的心智理论。(譬如倭猩猩能推断低级肢体语言,而非更复杂的心智活动)
- 无人驾驶汽车无法解决拥堵问题(好奇心日报),此外卡尔索普提出自动化快速交通(Autonomous Rapid Transit,简称“ART”),在国王大道等主干道的预留车道上开辟一条无人驾驶货车专用道。行驶在这些车道上的无人驾驶货车车速更快,对无人驾驶技术程度的要求也较低。这些货车可以单独行驶,也可首尾相连一起行驶。
- MUJI 在芬兰首款无人驾驶巴士(好奇心日报):日本 MUJI 与芬兰自动驾驶公司 Sensible 4 合作设计了一款名为“GACHA”的自动驾驶公共汽车,预计 2019 年 4 月开始在埃斯波市(Espoo)对公众开放。“这是世界上第一辆适合各种天气的自动公交车”。
- 非场所(non-place),马克欧杰(Marc Augé)用它定义一类人类学意义上的中转站。人人路过和匿名的公共场所,其空间不被或很少被人类活动改变或建构。
- 特德姜(Ted Chiang)作品《赏心悦目:审美干扰镜提案风波纪实》
- 陈楸帆作品《这一刻我们是快乐的》,参考书评
- 【延伸阅读】无人驾驶车辆无法作人一般的直觉反应涉及一个具身认知的问题,即重新表征和建立一个外部世界的模型还是用多个简单的反馈系统以涌现一个复杂有机体。
- 【延伸阅读】莫拉维克悖论(Moravec‘s paradox):人工智能能轻易做到人类看来属于「相当聪明」的工作,例如逻辑难题,而难以完成人类小孩能轻易完成的事,如对话和直觉区分物体。
- 【延伸阅读】无人车与劳力不足问题在日本(好奇心日报)
/杨闰哲提到/
- 计算机视觉(Computer Vision):用计算机代替人对图像中的目标进行感知、识别、分割和理解的人工智能技术。随着深度学习的在计算机视觉各任务上的成功,广泛应用于无人驾驶。有一些无人驾驶公司声称使用“纯视觉”技术,无需使用依赖昂贵的激光传感器。
- 监督学习(Supervised Learning):一种机器学习范式,使用有标注的数据训练机器学习模型,以预测新数据的标签。大部分无人驾驶涉及的计算机视觉任务,如图像识别,语义分割,都在监督学习的范式下进行。
- 强化学习(Reinforcement Learning):一种机器学习范式,让智能体在环境中试错,以期学会最大化的预期利益策略。相比监督学习,强化学习的监督信号更稀疏,具有回馈延时的特点。一般可应用于序列决策问题,比如无人车的控制。多智能体强化学习也是一个新兴的热门研究领域。
- 分布式系统(Distributed Systems):分布式系统是一组计算机,透过网络相互传通信后并协调它们的行为而形成的系统。在未来,如果无人车普及,很可能出现相互协同无人车分布式系统。
- 拜占庭将军问题与一致性(Byzantine Generals Problem and Consensus):不同的无人车通过通讯交换信息达成共识而按照同一套协作策略行动。如果不存在一个中心化的权威,无人车可能发送错误的信息,或者信息损坏,导致不同的成员关于全体协作的策略得出不同结论,从而破坏系统一致性。历史上Shostak把这个问题比作“拜占庭将军问题”:有一群将军必须共同进攻或者撤退。他们可以把自己的决策预先告诉他人,然后根据各自听到信息达成一致决定。如果7个将军中3个想进攻,3个想撤退,1个是叛徒,那么叛徒可以通过向两个群体发送不一致的消息让将军们产生无法产生一致行动。
- Leslie Lamport, Robert Shostak, Marshall Pease. “The Byzantine Generals Problem,” ACM Transactions on Programming Languages and Systems. (1982) https://www.microsoft.com/en-us/research/publication/byzantine-generals-problem/
- 拜占庭将军问题与一致性(Byzantine Generals Problem and Consensus):不同的无人车通过通讯交换信息达成共识而按照同一套协作策略行动。如果不存在一个中心化的权威,无人车可能发送错误的信息,或者信息损坏,导致不同的成员关于全体协作的策略得出不同结论,从而破坏系统一致性。历史上Shostak把这个问题比作“拜占庭将军问题”:有一群将军必须共同进攻或者撤退。他们可以把自己的决策预先告诉他人,然后根据各自听到信息达成一致决定。如果7个将军中3个想进攻,3个想撤退,1个是叛徒,那么叛徒可以通过向两个群体发送不一致的消息让将军们产生无法产生一致行动。
- 第五代通信技术(5G):目标传输速度高达2Gbit/s,延迟仅为1-4毫秒,可实现宽通道带宽和大容量多输入多输出系统(MIMO)。无人驾驶可以5G技术实现车联网,把摄像头和雷达传感器采集到的大量信息实时传到云端进行计算。
- 本地计算与云计算(Local Computing v.s. Cloud Computing):云计算是一种基于互联网的计算方式,终端可以请求共享服务器的软硬件资源和数据,减少用户终端的处理负担。现在因为传输实时信息的时间成本,无人驾驶的计算是在大部分是在本地进行的,对无人车的算力有一定的要求,但在未来随着5G技术的普及,可以把计算转移到云端,从而减少单台无人车的芯片成本。
- 信息聚合(Data aggregation / Data fusion):将多种不同源的数据进行整合,从而形成更加统一,精确的信息。信息聚合方法其实广泛引用于今天的地理信息系统,未来也可能应用到无人车系统中。
- 局部规则与涌现论(Local Rules and Emergentism):简单的局部规则可能产生出非常复杂的整体。一个支持无人驾驶的交通系统可能是复杂的,但这样的复杂系统也许只需要简单的、局部定义的规则去维护。
- Wolfram最爱的元细自动机(Cellular Automata)是一个从简单的、局部的规则中涌现复杂的例子。其中第110号规则已经被证明是图灵完备的。
- Stephen Wolfram. “Statistical Mechanics of Cellular Automata,” Reviews of Modern Physics. (1983), https://www.stephenwolfram.com/publications/cellular-automata-complexity2.
- Matthew Cook. "Universality in elementary cellular automata,” Complex Systems (2004), https://pdfs.semanticscholar.org/12d6/f0bb183050dd78b7671929455b7fdfdf73ce.pdf
- 无人车与失业问题:美国超过350万卡车司机,同时卡车司机也是美国增速最快的职业。如果真的让无人卡车上路,如何应对失业率的陡升与妥善安置失业司机将成为一个不可忽视的经济和社会问题。当然,在无人车取代他们之前,先要通过工会这一关。
- Scott Santens, Self-Driving Trucks Are Going to Hit Us Like a Human-Driven Truck. https://medium.com/basic-income/self-driving-trucks-are-going-to-hit-us-like-a-human-driven-truck-b8507d9c5961
- 决策边界(Decision Boundary):在机器学习的分类问题中,把输入空间分成两半的超平面。神经网络通过分类边界学习来极小化经验误差。对于无人车识别路况等任务,输入空间是像素和其他传感器采样组成的高维空间,决策边界非常复杂。
- 对抗攻击(Adversarial Attack):一种通过构造对抗样本使得机器学习模型失效的攻击方法。在图像识别领域,研究发现我们通过对图片进行一些肉眼难以分辨的像素改变,或者添加特殊的标记,就能让深度学习模型识别出现严重错误。这对基于计算机视觉的无人驾驶技术来说,是一个重大的安全隐患。
- 电车难题(Trolley Problem):一个著名的伦理学的思想实验。人们经常用这个思想实验来讨论以边沁(Jeremy Bentham)为代表的功利主义(utilitarianism)和以康德(Immanuel Kant)为代表的义务伦理学(deontological ethics)在道德选择上的冲突。如果十字路口的无人车必须要做出道德选择,它会如何应对这种道德两难?
- MIT Media Lab进行过一个“道德机器实验”:他们设计了一系列场景,研究在不可避免的事故情况下,公众认为无人驾驶汽车如何应对道德两难。他们最终收集到的来自233个国家和地区的数百万人用10种语言做出的4000万项决定,三种强烈的偏好:优先保护人类、优先保护更多生命、优先保护年轻的生命。这或许能成为通用机器伦理的基石。
- Iyad Rahwan. “The Moral Machine experiment,” Nature. (2018), https://www.nature.com/articles/s41586-018-0637-6
- 差分隐私(Differential Privacy):是一种基于密码学的数据共享方法,它可以可证明地最大化所需数据的准确性,同时最大程度减少身份信息泄漏的可能性。机器学习所依赖的大量数据,可以通过差分隐私的方法进行加密,从而保护数据的隐私安全。
本期人物
神无量子:我叫神无量子,是一个热衷于写科幻小说的家伙,当然不是因为我小说写的特别好特别多,而是因为我为了写小说去做了很多乱七八糟的事情,学了很多奇奇怪怪的知识,了解的广度远大于深度。成为了新时代的斜杠青年的次生代谢产物—歪杠青年。
杨闰哲:普林斯顿大学计算机系与神经科学研究所在读博士,本科毕业于交大ACM班,研究兴趣主要包括人工智能与计算神经。个人主页:https://runzhe-yang.science
汉那:UCSD 认知科学本科在读。心灵哲学 / 语言认知 / 科技人文 / 后人类。写字,摄影,嗜咖啡。游荡者。书呆子。野心家。
剪辑 / 北方
后期 / 小葵花