面向信息娱乐系统的车内眼动交互研究

汽车工程学报 / 2020年06月01日 09:41

车讯

冯凤 何人可 谭浩

摘 要:随着社会媒体的广泛应用和普适计算技术的开发,车载信息娱乐系统功能与操作层级不断增加。为了满足驾驶员与车载信息娱乐系统中各项功能安全交互的要求,自然人机交互方式和直觉性交互方式得以迅速发展。研究分析了现有的和正在开发的人车交互模式,分析其优劣性,在此基础上提出了基于车内信息娱乐系统的直觉性驾驶交互方式——眼动交互,开发了眼动交互原型和交互界面。经过原型测试验证了基于抬头显示器(Head-Up Display,HUD)的人车眼动交互的两个关键因素。

关键词:汽车;信息娱乐系统;眼动交互;界面;直觉化

中图分类号:TP39,TH122文献标文献标识码:A文献标DOI:10.3969/j.issn.2095-1469.2015.02.04

Abstract:The development of social media and ubiquitous computing technology brings rapid growth of in-vehicle infotainment systems. In order to meet the requirements of interaction efficiency and driving safety, the means of interaction including natural and intuitive interactions have been studied and developed constantly.The paper analyzed the new developments and on going studies of human-vehicle interaction models, presented the first eye movement-based interaction model based on the HUD (Head-up Display), and developed a prototype and a user interface. The prototype testing results show the key factors in eye movement-based interaction are eye movement mechanism and the user interface.

Key words:vehicle; infotainment system; eye-movement interaction; interface; intuitive

随着社会媒体的发展,都市信息集成和普适计算的广泛应用,各种汽车服务应用集成度不断增高,操作层级日趋复杂。目前人车交互的信息集成可以归为三个层次:人与社交网的信息集成、车与地理网的信息集成以及技术集成[1]。人车交互行为主要集中于前两个层次:单纯的驾驶行为交互转变为驾驶及娱乐和信息交流的综合交互。因此传统人车交互方式已满足不了人在驾驶过程中接收并处理信息的需要,比如读写信息、打电话、操作导航系统、社群系统以及在功能列表中选择娱乐系统。针对以上问题,各种新交互方式逐渐渗入汽车交互模式中,面向信息娱乐系统的人车交互方式也逐步被开发。

综合目前各种交互模式分析,车载信息娱乐系统中各种功能的不断扩展,驾驶员在驾驶行为中与各种信息交互操作增加,驾驶任务和信息交互占用了驾驶员的手、眼、脚、听觉等通道。尽管各种新兴的自然交互方式力图有效降低驾驶分心和认知负荷,但是多通道的占用不可避免地干扰驾驶。比如手势操作或多或少会占用视觉通道,使驾驶员视线离开路面[2];语音对话在一定程度上会影响视觉判断[3],引起潜在的危险。相比之下,眼通道交互不仅在人的信息获取和输出上比较闲置,眨眼和扫视行为本身也是一种直觉性操作方式,因此基于以往的交互经验不需要额外学习和适应[4]。眼动交互在这个层面上说是更贴近自然交互的操作方式。

本文列举了目前人车交互的多种模式,分析其交互方式的瓶颈,并在此基础上提出了车内眼动交互模型,并且开发了眼动交互设计原型,进行了原型测试,为下一步的电子原型开发和实际应用做了基础研究。

随着各种信息在车中集成,驾驶员除主要驾驶任务外,对于信息娱乐的交互使驾驶任务流不断变复杂,驾驶负荷不断加重,比如驾驶过程中使用电话会严重影响当下信息条目的认知记忆[2]。通过有效的交互模式设计降低行为负荷和认知负荷是亟待解决的问题。

从交互界面角度来看,传统的信息娱乐交互界面为物理界面,主要集中在中控台,交互方式主要是物理按键操作。但是传统的室内人机交互界面不能满足不断增长的交互需求[5]。近年来物理界面逐渐向空间界面发展,触屏操作方式逐渐普及。尽管如此,操作功能的有限性与日益增多的信息和操作要求的冲突,多信息交互所引起的驾驶负荷(Drive Work-Load)和驾驶分心(Drive Distraction)挑战着对驾驶安全的要求[6]。这种情况下各种新的人机交互方式不断被开发,以求在确保驾驶安全的情况下为用户提供更加自然的交互方式(图1)。

在自然人机交互模式中,体感交互、语音交互和多通道交互是目前主要的人机交互模式,也是人车系统中解决当前人与多级信息交互的主要模式。汽车中体感交互方式主要为手势交互,交互瓶颈在于手势操作误判的、没有信息反馈和难以撤销操作等。此外,现有的车载手势交互被认为没有很好地遵循统一的交互方式和原则,并且某些组合手势难以被用户发觉和使用,因此会带来一定程度的用户体验问题。

语音交互是指基于语音识别技术,在拨号、导航、控制等应用中开发的交互方式。车载语音交互主要应用于语音辅助驾驶[7]、导航应用等[8]。语音识别的交互障碍在于没有视觉反馈,容易造成认知困惑,还在于难以撤销命令,造成驾驶任务以外的额外负担。

多通道交互技术综合集成了语音交互、体感交互、视觉交互等交互模式。车载信息娱乐系统的多通道交互应用很多集成于方向盘控制上,位于方向盘上的多点触摸屏能有效降低驾驶员的视觉负荷[9],避免单通道交互引起的认知负荷过重和无法克服的缺陷。例如斯图加特大学开发的语音和手势相结合的驾驶辅助系统[10],但是该种方式处于实验室研发阶段,成本大且难以普及。

综上所述,人车交互模式需要在驾驶任务、认知负荷和用户体验方面寻求平衡的交互之路。基于车载信息娱乐系统的直觉性的交互方式有待开发。

1 眼动交互模式研究

在汽车工程中关于眼动机制的研究主要在于测量眼动模式并分析其对于驾驶行为的影响。同时,在人机交互领域眼动机制也早有研究和实践,多为残疾人交互设备和其它技术辅助设备,比如史蒂芬·霍金的“说话的眼睛”[11]。最新的眼控设备开始转向眼动交互研究,并且融入我们的日常生活。比如TobiiPCEye Go动交通过眼动进行人机交互的电脑[12],智能手机中的眼动翻页[13],眼动操作的视频游戏等等[14]。但是没有一种眼动交互模式适应复杂的驾驶环境,而眼动特征对于汽车驾驶行为有至关重要的作用。眼注视对于前方驾驶区域的集中度保证驾驶员的道路控制能力,影响着驾驶安全[15]。而传统仪表板所提供的信息造成驾驶过程中频繁的视觉切换,将导致潜在的驾驶危险。

HUD作为眼动交互的载体,其抬头显示技术已较成熟地用于飞机驾驶舱、海洋电子导航设备等[16]。

汽车中信息显示也由传统的中控台显示转移到更加安全直观的HUD上。较之传统的低头显示器(Head-Down Display,HDD),在配备有HUD的汽车中驾驶员保持恒定速度表现有显著提高,对于紧急事件的响应时间明显缩短[17]。但是目前HUD仅仅用于呈现信息,却无法使驾驶员与各种信息进行交互操作。因此我们在对各种交互方式的研究和比较的基础上,开发了基于车载HUD的眼动交互应用原型。现阶段原型设计中选取了常见的车载娱乐功能即音乐控制信息结合HUD,驾驶员在驾驶过程中看信息并利用正常的眼睛运动如扫视、注视、眼移动发出相应命令控制音乐的播放、暂停和音量。

2 研究方法

基于眼动交互模式研究,我们假设眼动机制和交互界面是人车直觉性交互的关键因素。我们开发了两套交互原型,邀请6名被试者进行原型测试来验证这一假设。为验证以上两个假设,首先设计了两套不同的操作界面原型。原型测试期间使用驾驶模拟器模拟驾驶环境,并使用电脑播放操作界面。索尼高清小型数码摄像机HDR-HC1用来视频记录全过程,以便后续的用户分析,便于操作的原型改进。我们采用以下3种方法来辅助眼动交互研究和交互原型设计迭代。

2.1 观察法和主观过程记录

测试过程全程视频记录并且由辅助测试人员主观记录被试表现。为方便记录和分析我们设计了记录工具PMI(procedure-motion-interface recording)记录表(图2)。表中测试过程包括两个任务,每个任务划分为若干阶段,每个阶段包含两部分:眼运动(即相应的交互动作)和其相应的交互界面。主试者负责测试流程,辅助测试人员根据主观观察记录测试过程、话语、误操作以及记录主观言论。PMI记录表极大地帮助分析用户表现和原型设计迭代。详细信息将在文章测试分析部分提到。

2.2 有声思维研究方法

根据有声思维研究方法(think-aloud method)[18],被试者在操作的同时被要求描述他们的动作。主试者播放相应的界面原型配合被试者操作并且提供给被试者相应的反馈。在这一过程中我们可以清晰地知道被试者的交互流程、操作过程和他们的误操作,找到原型设计中的问题点。

2.3 焦点小组和参与式设计

测试完成后,被试者与所有试验者(原型开发人员)进行焦点小组访谈和参与设计活动[19]。在有声思维阶段我们可以了解和观察被试者的表现、想法和操作流程,但这种表现是通过预先设计的任务流程而触发的。原型测试后,被试者对眼动交互应用已经有情感认知。我们鼓励被试者通过焦点小组自由地谈论他们的意见和评估原型。在参与式设计阶段,邀请被试者与开发人员一起改进方案,并一同进行原型设计迭代。另一方面,通过参与式设计能更好地理解用户需求,发现隐藏的问题。

3 设计原型和用户原型测试

基于上述两个假设——眼动机制和交互界面,当前研究阶段致力于交互流程的开发和用户界面的设计。所以,我们使用驾驶模拟器和笔记本电脑来模拟电子原型,以便快速高效地进行原型迭代。

人的眼动主要分为两类:有意识的运动和无意识的运动。最常规的眼球运动属于无意识动作,它们是直觉性自发的运动。比如浏览、看路、跟随移动的物体等。根据人体的自然眼睛典型动作——扫视、注视和眨眼[20],我们为眼动交互系统定义了4种基本动作:扫视、凝视、眨眼和移动。

(1)扫视:当驾驶员在驾驶行为中观察路况时,他们的眼睛注视位置会时不时落在HUD上的热点区域中。在此情况下,以微弱的闪烁作为反馈,但它不会启动任何操作。

(2)凝视:当用户短暂的凝视热点区域,功能被激活,并且另一个反馈将提供给用户,告知他们现在可以控制音乐。

(3)眨眼:执行相应的命令。

(4)移动:允许用户用眼移动控制HUD上的对象移动,如调整音量球。

当前的研究专注于如何让驾驶员通过直觉性的眼动与车内的信息娱乐系统自然、高效地交互。因此提出两套界面原型,分别为不同的交互机制和界面(图3)。图3右为眨眼操控界面,即用户通过眨眼和界面反馈来改变音量。图3左为移动控制界面,即用户需要眼移动来改变音量。基于这两种类型的接口框架,我们设计了两个高保真界面(图4)。

3.1 测试流程

原型测试地点在湖南大学人机交互实验室。6位被试者为湖南大学师生,其中4人为有经验驾驶者,2人为驾驶新手,被试者年龄范围为20~35岁,4名男性,2名女性。研究重点是开发直觉性交互的新方式,因此选择用户最熟悉的音乐应用来做测试。其一,简单交互模型便于初期开发,有助于了解眼运动的交互机制。其二,简单的操作使我们更容易观察交互过程和用户表现。整个测试包括两个任务:播放和暂停音乐任务,调节音量任务。驾驶模拟器用来模拟驾驶环境,笔记本电脑播放高保真原型(图5)。

所有被试者都没有预先的眼动经验和有关的眼动交互操作,没有心理模型以符合当前环境和做交互参考。然而直觉性的人机交互方式要求符合用户以往的经验和体验[15]。因此首先进行10 min原型介绍和操作示范,直到用户对于测试过程和眼动交互模式有初步认知之后才开始进行相关音乐播放的任务流程。

第一项任务要求被试者使用模拟驾驶器驾驶,同时操作音乐播放模式和音乐暂停模式。我们不能主观区分用户自然的眼动和有意识的眼动操作,因此这一阶段的用户使用有声思维方法报告他们正在进行的操作。我们录制下整个测试过程和用户表现,辅助测试员进行主观记录。第二项任务要求被试者在驾驶过程中眼动调整音乐的音量。我们向用户做简单的情景描述,然后让用户实践音量调整模式。用户原型测试的最后阶段是焦点小组访谈和参与式设计。

3.2 焦点小组访谈

在完成以上两项任务后,用户已经完全熟悉原型和理解眼动交互机制,所以在这个阶段首先与被试者自由交谈。由于被试者并没有参与前期的原型开发,没有早先的经验干涉,因此相对于开发人员更容易找到隐藏问题。通过焦点小组访谈,我们总结出一系列设计关键点,比如“开车时无法区分HUD上的指示性图标和操作性图标,及“开车时要求系统有中断处理功能,在处理完交通情况时它能记住我当前操作。”

3.3 参与式设计——评估和迭代

在评估阶段,不仅要求被试者评价原型a,同时将原型b呈现给被试者。因为有了之前的测试经验,被试者很容易通过移情作用[21]体会原型b的操作模式。此阶段被试者对比两套原型,找出更加符合用户心理模型的操作方式。在这一阶段用户和开发人员共同改进了早期模型,并且提出了更加容易接受的直觉性眼动交互模型。此外,原型操作实时性的问题被用户质疑,这一部分将在后期的电子原型中加以探讨。

4 测试分析

4.1 基本情况介绍和定性定量分析

在原型测试中,整个工作流的完成没有明显的认知障碍和操作困难。任务1可以流畅准确地完成。任务2中6名被试者中有3人出现界面识别困惑,误操作也多集中于此。6名被试中5人明显倾向于原型a并且对眨眼操控界面有很高的评价。另一人对于任何交互界面没有明显的偏向。在结果探讨中我们采用定性与定量相结合的方法分析和评价原型。由于重点在于直觉性的交互方式探索,简单的定量分析工具无法完全反映用户体验结果,因此采用了两者相结合的方法,从以下4个角度探讨眼动机制和交互界面对于眼动交互的影响:交互评价、品质评价、工作流评价和界面评价。

4.2 交互评价

在原型测试中,用户困难点和误操作点主要集中在任务1,阶段5和任务2,阶段a、b、c、e中;交互问题集中于阶段a和阶段c。其中一位被试者反映说在驾驶过程中他无法区分任务1,阶段1和任务2,阶段a,因为两个阶段视觉反馈没有任何差异。针对这个问题,在接下来的参与式设计中被试者与我们共同提出改进。在阶段b中被试者通常忘记眨眼动作代表开始调节音量,原因是他们在上一个阶段中没有这样的操作,因此将上一个阶段的经验自然地推广到当前阶段的操作中。从这里我们看出在做直觉性交互开发时过分地简化操作无益于用户的认知,要确保操作范式前后一致。

界面困惑主要发生在任务2,阶段b中。6名被试者中5人反映说他们在驾驶时无法快速找准和快速定位到音量调节热区。尽管“volume”操作图标明显提示热区位置,但是这个功能图标更具有指示性特征,而非操作图标特征。综上所述,初始原型与用户的心理模型并不完全一致,自觉性的交互方式必须来源于熟悉的范式或者早先的知识[22]。正因如此,这一部分也被包含在参与式设计过程中。

然而另一个原因也造成误操作。6名被试者中2人认为略有滞后的模拟操作界面影响了他们的判断,3人认为有声思维方法降低了他们的操作效率,但同时他们对于后期的电子原型和测试表现有信心。另外根据基本驾驶信息统计,有驾驶经验的驾驶员(驾龄大于7年)比驾驶新手(驾龄小于3年)更不容易出现误操作。因此驾驶经验对于眼动交互也是重要因素之一。

4.3 品质评价

评价量表用来定义被试者对眼动交互模型的主观评价,并且为电子原型和产品开发提供参考(图6)。在原型品质评价中,6名被试者中5人更加倾向于第1套原型。经过测试,被试者普遍认为驾驶过程中用眼动控制移动会占用过多视觉通道从而引起驾驶危险。通过量表统计,我们得出结论“安全性”是所有被试者最关心的因素。“Easy to operate”是负评价,因为所有被试者没有眼动交互的早先经验可供借鉴。尽管眼动交互模型在工作流、交互界面等方面符合用户的产品认知,但是早先眼动交互模式知识的欠缺仍旧造成相当的认知困难和误操作。除此之外,产品实时性能是被试者普遍关注的另一个问题。“操作速度”,“紧张度/精力集中度”和“习惯符合度”的评估为正评价,因此电子原型具有开发价值。

4.4 工作流评价

通过图7(a)可以看出原型中出现两个明显的工作流程问题。第一,中断操作没有很好地设计。两名被试者在自由谈和参与式设计中提出关于紧急情况出现后视线移开与操作中断的问题。第二,操作流程中有不必要的过程重复。比如从初始状态开始的音乐播放操作流程为“注视—注视—眨眼”。如果用户试图暂停音乐播放,必须要重复“注视—注视”流程才可进行暂停操作(图7a),这使操作流程冗余低效。在用户参与式设计过程中我们与用户一起改进了工作流程。

5 用户参与式设计和设计迭代

原型测试之后6名被试者对于驾驶过程中眼动交互模型有所熟悉,并且对于直觉性交互设计有所期待。我们鼓励被试者表达出音乐播放和眼动交互的心理模型,同时共同绘制改进的框图和操作流程。6人中有5人明显更倾向于原型1,因此改进模型在原型1的基础上进行。

5.1 工作流迭代

基于参与式设计改进和精简了交互式工作流程。首先,精简了音乐暂停工作流,删除重复的“注视—注视”步骤,在初始界面以双眨眼方式来暂停音乐,这样就使用户在任何紧急情况下都能暂停音乐。第二,在新工作流中共同增加开发设计了中断操作以便在音乐操作过程中应对复杂的交通事件。在这种情况下驾驶员必然会放下当前的操作任务转而去处理交通问题。如果在操作过程中用户没有进行任何操作的时间超过3 s,音乐界面会自动隐去以方便驾驶员处理交通问题,等待时间需要在电子原型开发后下一个试验阶段进行试验和验证。最终改进的电子原型工作流如图7(b)所示。

5.2 界面迭代

基于测试结果和用户参与式设计,邀请用户评估界面原型(图8),第一排初始界面引导两种界面框图所衍生的方案。每个高保真原型有10个评级,通过用户打分选出最终电子原型开发的界面方案(图9)。

6 结论和未来研究

本文提出了新的直觉性人车交互模型——眼动交互模型。研究的最终目的是在车载娱乐信息系统操作下降低驾驶员的驾驶负荷;同车内信息娱乐系统交互时防止视觉切换造成的驾驶危险。提出了影响人车眼动交互的两个关键因素的假设,设计了眼动原型和一系列高保真界面,并且在此基础上开展原型测试,验证了眼动操作机制和交互界面是眼动交互直觉性操作的两个关键因素。

研究的重点在于眼动的交互机制,所以目前阶段只是开发初期设计原型。未来将基于当前眼动机制和高保真界面的研究开发电子原型,交互实时性能和鲁棒性需要在后期试验中得到验证。同时眼动交互是否能降低驾驶负荷,防止视觉切换带来的驾驶危险也将在后期试验中进行验证。作为初期开发,眼动交互的应用操作和交互机制有所局限,在今后的研究中会结合多种实际驾驶情况拓展眼动机制交互模式,并且逐步拓展到其它车载娱乐信息系统的应用中。

参考文献(References):

RONALD S,ANDRY R,MARCUS F. The Social Car: New Interactive Vehicular Applications Derived from Social Media and Urban Informatics [C]// Proceedings of the 4th International Conference on Automotive User Interfaces and Interactive Vehicular Applications,Portsmouth,New Hampshire:Automotive UI'12,ACM,2012:107-110.

H K M B,J?QER M G,SKOV M B,et al. You Can Touch,but You Can't Look:Interacting with In-Vehicle Systems [C]// Proceedings of the SIGCHI Conference on Human Factors in Computing Systems,ACM,2008:1139-1148.

STRAYER D L,DREWS F A,JOHNSTON W A. Cell Phone-Induced Failures of Visual Attention During Simulated Driving [J]. Journal of Experimental Psycho-logy:Applied,2003,9(1):23.

HURTIENNE J,ISRAEL J H. Image Schemas and Their Metaphorical Extensions:Intuitive Patterns for Tangible Interaction [C]// Proceedings of the 1st International Conference on Tangible and Embedded Interaction,New York,NY,USA:ACM,2007:127-134.

谭浩,赵江洪,王巍. 汽车人机交互界面设计研究 [J]. 汽车工程学报,2012,2(5):315-321.

Tan Hao,Zhao Jianghong,Wang Wei. Vehicle Human Machine Interface Design Research [J]. Chinese Journal of Automotive Engineering,2012,2(5):315-321.(in Chinese)

PARK H,CHOI J,KWON H J,et al. Multimodal Interface for Driving-Workload Optimization[M]//Human-Computer Interaction. Towards Mobile and Intelligent Interaction Environments,Germany:Springer Berlin Heidelberg,2011:452-461.

JONSSON I M,ZAJICEK M,HARRIS H,et al. Thank you,I Did Not See That:In-Car Speech Based Information Systems for Older Adults [C]//CHI'05 Extended Abstracts on Human Factors in Computing Systems,Portland,Oregon,USA:ACM,2005: 1953-1956.

MANCUSO V. Take Me Home:Designing Safer In-Vehicle Navigation Devices [C]// CHI'09 Extended Abstracts on Human Factors in Computing Systems, Boston,MA,USA:ACM,2009:4591-4596.

D?RING T,KERN D,MARSHALL P,et al. Gestural Interaction on the Steering Wheel:Reducing the Visual Demand [C]// Proceedings of the SIGCHI Conference on Human Factors in Computing Systems,Vancouver,BC,Canada:ACM,2011:483-492.

PFLEGING B,SCHNEEGASS S,SCHMIDT A. Multimodal Interaction in the Car:Combining Speech and Gestures on the Steering Wheel [C]// Proceedings of the 4th International Conference on Automotive User Interfaces and Interactive Vehicular Applications,[S.l.]:ACM, 2012,155-162.

SAENZ A. How Does Stephen Hawking Talk? (video) [EB/OL]. (2010-05-03)[2010-05-03]. http://singularityhub.com/2010/05/03/how-does-stephen-hawking-talk-video/.

http://www.tobii.com/en/assistivetechnology/global/products/hardware/pceye/.

http://www.youtube.com/watch?v=lVCpUmLinXM.SMITH J D. GRAHAM T C N. Use of Eye Movements for Video Game Control [C]// Proceedings of the 2006 ACM SIGCHI International Conference on Advances in Computer Entertainment Technology,Hollywood,California,ACM,2006:20.

VICTOR T W,HARBLUK J L,ENGSTR?M J A. Sensitivity of Eye-Movement Measures to In-Vehicle Task Difficulty [J]. Transportation Research Part F:Traffic Psychology and Behavior,2005,8(2):167-190.

HOLDER E,PECOTA S R. Maritime Head-Up Display: A Preliminary Evaluation [J]. Journal of Navigation, 2011,64(4):573-594.

LIU Y C,WEN M H. Comparison of Head-Up Display (HUD)vs. Head-Down Display(HDD):Driving Perfor-mance of Commercial Vehicle Operators in Taiwan [J]. International Journal of Human-Computer Studies,2004,61(5):679-697.

FONTEYN M E,KUIPERS B,GROBE S J. A Description of Think Aloud Method and Protocol Analysis [J]. Qualitative Health Research,1993,3(4):430-441.

MULLER M J. Participatory Design:the Third Space in HCI [C]//Human-Computer Interaction:Development Process,2003:1051-1068.

BULLING A,WARD J A,GELLERSEN H,et al. Eye Movement Analysis for Activity Recognition [C]// Proceedings of the 11th International Conference on Ubiquitous Computing,New York,NY,USA: ACM,2009:41-50.

MCDONAGH D. Do It Until It Hurts! Empathic Design Research [J]. Design Principles and Practices,2008,2(3):103-110.

NAUMANN A,KINDSM?LLER M C,MOHS C,et al. Design for Intuitive Use:Beyond Usability [C]// CHI '08 Extended Abstracts on Human Factors in Computing Systems,Florence,Italy:ACM,2008:2372-2375.

作者介绍

责任作者:冯凤(1989-),女,山东济南人。硕士研究生,主要研究方向为信息与交互设计。

Tel:15973155417

E-mail:ffeng0531@gmail.com

通讯作者:何人可(1958-),男,湖南长沙人。教授,博士生导师,主要研究方向为工业设计史与设计战略。

Tel:0731-88822418

E-mail:renke8@163.com

1.智电汽车遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.智电汽车的原创文章,请转载时务必注明文章作者和"来源:智电汽车",不尊重原创的行为智电汽车或将追究责任;3.作者投稿可能会经智电汽车编辑修改或补充。