探究大模型的风险、影响与应对 [文献综述]

2024 / 7 / 14

基本信息:
论文标题:探究大模型的风险、影响与应对
论文作者:Siyu Chen, Ziheng Ma, Xingyu Xiong, Ziheng Yan, Dongjie Yang, Yujie Zhang (not prioritized)
归属单位:上海交通大学

Basic Info:
Title: Continuing the Explor ation of Risks, Impacts, andResponses Associated with Large Language Models
Authors: Siyu Chen, Ziheng Ma, Xingyu Xiong, Ziheng Yan, Dongjie Yang, Yujie Zhang (not prioritized)
School: Shanghai Jiao Tong University (SJTU)

知网查重率:3.2%

摘要

在人工智能的蓬勃发展中,大型语言模型(LLMs)已成为内容生成的关键技术。本文全面审视了 LLMs 在内容生成过程中所面临的风险,从技术、社会和伦理三个维度进行深入分析。本研究详细探讨了幻觉现象、模型偏见、数据泄露、虚假信息的扩散、版权侵犯以及不良内容的生成等问题,并提出了针对性的技术改进措施,例如引入“语义熵”方法,以及相应的政策建议,以增强 LLMs 的可靠性与安全性。文章最终强调了风险管理在推动 LLMs 健康发展中的核心作用,并呼吁技术发展与社会伦理法规的和谐统一。
关键词:大型语言模型,内容生成风险,策略制定,风险管理

ABSTRACT

Amidst the rapid advancement of artificial intelligence, large language models (LLMs)have emerged as a pivotal technology for content generation. This paper provides a comprehensive examination of the risks associated with LLMs in content generation, analyzing these risks from technical, social, and ethical perspectives. The study delves into issues such as hallucinations, model biases, data leaks, misinformation dissemination, copyright infringement, and the generation of harmful content. It proposes targeted technical improvements, such as the introduction of the "semantic entropy" method, and offers corresponding policy recommendations to enhance the reliability and security of LLMs. The paper underscores the critical role of risk management in fostering the healthy development of LLMs and advocates for the harmonious integration of technological advancement with social and ethical regulations.
Keywords: large language models, content generation risks, policy formulation, risk management

第一章 绪论

1.1 引言

随着人工智能技术的飞速发展,大型语言模型(LLM)已成为自然语言处理领域的前沿技术。它们在机器翻译、文本摘要、问答系统等多个领域展现出卓越的性能。本研究旨在深入分析 LLM 在内容生成过程中可能遇到的风险,探讨有效的应对策略,以期为 LLM 的健康发展提供理论支持和实践指导。本章将首先介绍LLM的基本概念和发展历程,然后分析国内外的研究现状。

1.2 大型语言模型简介

LLM 是指通过大量数据训练,能够理解和生成自然语言文本的复杂计算模型。它们通常基于深度学习技术,具有处理大规模数据的能力。从早期的基于规则的系统到现代的基于神经网络的模型,LLM 经历了多次技术革新。特别是近年来,随着计算能力的提升和算法的优化,LLM 的性能得到了显著提升。现如今,LLM已被广泛应用于信息检索、情感分析、自动文摘、对话系统等众多领域,极大地推动了人工智能技术的发展和应用,增进了广大群众的民生福祉。

1.3 国内外研究动态

国际上,大型科技公司如 OpenAI、Google、Meta(Facebook)等在LLM领域取得了重要进展。国内研究者及公司,如阿里云、百度等也在积极探索LLM的理论和应用,取得了一系列成果。当前,LLM 的研究趋势主要集中在提高模型的可解释性、压缩模型大小、减少内容偏见和提高生成内容的准确性等方面。尽管LLM取得了十分耀眼的显著成就,但仍存在一些挑战,如模型的泛化能力、数据隐私保护和伦理问题等,这些都是未来研究需要关注的重点。

第二章 大语言模型内容生成的风险维度分析

2.1 技术风险

2.1.1 模型产出内容时的幻觉

在对大型语言模型的幻觉现象进行深入分析时,我们首先要认识到这些模型在生成内容时所固有的不确定性,以及这种不确定性可能引发的一系列潜在风险。幻觉现象的根源在于训练数据的不确定性,这是导致幻觉问题的关键因素。大型模型是在对大量不完全准确的数据进行综合分析的基础上进行训练的,而数据中产生的幻觉主要源于源数据与参考标准之间的差异。
训练过程中,若模型接触到存在差异的数据,可能会导致其生成的文本与原始数据源不完全一致,甚至可能偏离原始意图[1]。在训练阶段,训练数据集中的错误信息可能会被模型错误地记忆,而数据对齐的偏差也可能导致模型倾向于支持用户的观点而非客观事实[6],这将影响其生成内容的准确性。
值得注意的是,Parikh 等人的研究表明,即便数据集的偏差微乎其微,幻觉问题依然可能发生[2]。这是因为幻觉现象的产生还受到另一个重要因素的影响,即神经网络模型的训练和建模决策[3 - 5]。在强化输出的训练过程中,模型可能会过度自信,即使在知识不足的情况下也可能提供确定性的答案;在输出错误信息时,模型更倾向于继续错误而非进行自我修正[6],这可能导致更严重的后果。
综上所述,大型语言模型的幻觉问题是一个复杂的现象,它涉及到训练数据的准确性、数据对齐的偏差以及模型训练和建模的选择等多个方面。为了减少幻觉现象的发生,需要从这些方面进行综合考虑和改进,后文会进行更深入的探讨。

2.1.2 模型的偏见

在数据源的选择和模型训练的调整过程中,研究人员的主观思考和见解不可避免地会影响模型,可能引入模型偏见。例如,谷歌公司正在积极修正其新人工智能图像生成工具,该工具在研究人员的引导下曾过度地纠正了种族歧视问题。用户反馈指出,尽管谷歌的双子座机器人能够生成多样化性别和种族的图像,但这些图像在历史准确性上可能存在偏差[7]。
进一步地,大型语言模型作为预训练模型的延伸,虽然在多个应用场景中因其卓越的性能和广阔的发展前景而得到广泛部署,但它们仍有可能从未经处理的训练数据中捕捉并传播社会偏见,影响下游任务的公正性[8]。这种偏见的传播不仅关系到模型的准确性和可靠性,也关系到其在社会中的责任和影响。

2.1.3 数据泄露

目前,ChatGPT 作为一个未公开源代码且难以复制的系统,其资源和技术被限制在微软和 OpenAI 等少数国际商业组织手中,这可能引发对技术依赖的担忧。与此同时,国内的大型模型在性能上与国际领先水平相比仍有差距,促使许多用户倾向于选择国外的模型服务[9]。而反观,其 ChatGPT 主要通过云服务和API 的形式提供服务。它的训练和测试环节均在美国微软公司的服务器上执行,这一过程中可能会收集用户的可能包含敏感信息的使用数据和反馈,以及跟踪用户的使用习惯,从而引发各界对信息泄露和用户隐私保护的严重关切[10 - 12]。

2.2 社会风险

2.2.1 虚假信息传播

在处理大型语言模型时,我们经常会遇到所谓的“幻觉”问题,这指的是模型在生成输出时可能会产生与输入任务不符、语境不连贯,或与现实世界事实相悖的错误信息[9]。具体来说,这种幻觉现象主要表现为三种形式:首先,模型的回答可能与用户提出的任务完全不相关;其次,生成的内容可能在逻辑上存在矛盾,缺乏连贯性;最后,回答可能与现实世界中可验证的事实相冲突[13]。这些问题不仅削弱了模型的可信度,也限制了其在关键领域的应用,如医疗和金融等较为专业的领域,因为它们的微小错误都有可能对人类的生命健康和财产安全带来风险。
如表 2-1 中即列举了部分大模型会输出的虚假信息即其“幻觉”。

表 2-1 大语言模型幻觉[9]

在数字出版领域,人工智能生成内容的质量同样引起了广泛关注。如果模型训练所用的文本数据不足,就可能产生低质量或错误的信息,进而误导读者,造成混淆,甚至传播伪科学的观点。此外,如果训练数据中存在偏见或歧视,模型生成的内容也可能反映出这些问题,这可能导致在性别、种族、政治立场、残疾等方面出现不公平的歧视现象[14]。

2.2.2 侵犯版权

在人工智能领域,无论是构建基础的大型语言模型还是对现有模型进行微调,都不可避免地依赖于现有的文本数据。这种依赖性引发了一些法律问题,尤其是关于文本的合理使用和版权侵犯的风险。使用现有文本进行大语言模型的训练,可能会涉及到未经授权使用他人作品的法律风险。
相对应地,在数字出版领域,应用大语言模型生成的文本可能包含他人的原创作品,这同样存在版权侵权的风险。虽然目前的技术通过添加引用或注释来标记文本来源,但这种做法是否符合版权法的要求,无论是在国内还是国际上,截至本论文发布时都还暂时没有明确的结论[14]。

2.3 道德风险

2.3.1 不良内容产生

在人工智能领域,GPT 系列模型因其卓越的性能而广受关注,但它们的训练语料主要源自西方文化背景,这可能导致模型在价值观上倾向于西方视角。这种倾向可能与中国的价值观存在差异,从而影响模型生成内容的适宜性。尽管通过RLHF(Reinforcement Learning from Human Feedback)的训练方法,ChatGPT在与用户互动时展现出更加友好的特性,但这并不能完全消除训练语料中的潜在偏见,也无法保证完全避免引入标注者的主观价值观。
在实际的功能测试中,可以发现 ChatGPT 生成的内容有时会包含对中国的偏见性言论,并且在处理涉及中国政治的话题时,并没有采取回避或拒绝回答的策略,有时甚至会发表与事实不符的评价[15]。这些问题揭示了在构建训练数据时,对于可能包含偏见的言论缺乏有效的筛查机制。因此,为了提高模型的公正性和适应性,需要在训练数据的选择和处理上进行更加细致和审慎的考量。

2.3.2 侵犯隐私

随着大型语言模型功能的不断增强,越来越多的企业和个人开始依赖这些模型来处理日常事务。然而,在这个过程中,模型可能会接触到大量敏感信息,包括商业机密和个人隐私数据。如果这些信息被不当泄露并用于恶意目的,如诈骗或网络攻击,将可能导致严重的安全问题。如图 2-1 所示,根据 Privacy Hawk 公司在2023年发布的隐私调查报告[15],高达 94%的受访者对各式各类基于聊天机器人的应用表达了对隐私泄露的担忧。这表明,大型语言模型在隐私安全方面的挑战,对其可信度和应用前景构成了威胁。

图 2-1 大语言模型隐私安全[15]

为了应对这些挑战,需要采取一系列措施来加强模型的隐私保护能力,包括但不限于数据加密、访问控制、以及对敏感信息的严格管理。同时,也需要提高用户对隐私保护的意识,确保他们在享受大型语言模型带来的便利的同时,也能够保护自己的数据安全。

图2-2 一种提示词泄露(攻击)样例[16]

在大型语言模型的应用中,提示词也起着至关重要的作用,它们能够引导模型完成特定的下游任务。开发者通过精心编写的系统提示词来构建基于大模型的各类应用。这些提示词的质量直接影响到应用的用户满意度、功能性以及安全性。因此,提示词的保密性至关重要,一旦泄露,不仅可能使得开发者的知识产权被竞争对手利用,还可能导致用户的隐私信息泄露。
此外,提示词的泄露还可能增强对大模型的攻击。攻击者可以利用泄露的系统提示词,优化其攻击载荷,从而更有效地绕过模型的安全防护措施[16 - 18]。这不仅威胁到应用的安全性,也可能对用户造成潜在的风险。

2.4 本章小结

本章深入探讨了大型语言模型(LLM)在内容生成过程中面临的风险维度,包括技术风险、社会风险和道德风险。技术风险主要涉及模型产出内容时的幻觉现象、模型偏见和数据泄露问题。社会风险着重分析了虚假信息的传播和版权侵犯问题,而道德风险则关注了不良内容的产生和隐私侵犯问题。通过分析,本文揭示出这些风险不仅影响 LLM 的准确性和可靠性,还可能对社会秩序和个人权益造成潜在威胁。因此,需要从技术、社会和道德三个层面出发,采取相应的措施来降低这些风险,确保LLM的健康发展。

第三章 大语言模型内容生成风险的影响分析

3.1 道德和伦理风险的影响

大型语言模型(LLM)的训练数据主要来源于互联网,这些数据不可避免地包含了社会、政治和文化上的偏见与歧视。此外,LLM 生成的内容可能包含幻觉,这在提供知识的同时,也可能产生具有特定倾向的内容,误导用户和读者。因此,LLM在道德和伦理方面存在潜在的风险,可能对用户的思考、决策和行为产生负面影响。例如,2016 年微软推出的聊天机器人 Tay,由于生成了反犹主义、性别歧视和种族歧视等不当言论,挑战、违背了社会公序良俗和人类共同道德,最终在上线不到24小时后被迫下架。随着 Stable Diffusion、ChatGPT 等生成式AI 产品的出现,AIGC正在全世界范围内引发一场新的工业革命。然而,随着 LLM 的广泛应用,其带来的道德和伦理风险也日益凸显,在人类的道德与伦理层面上产生着显著影响。

图 3-1 美国微软公司的“Tay”机器人

3.2 技术风险的影响

LLM 面临的技术风险之一是注入攻击,尤其是目标劫持攻击,这严重威胁了模型的安全性。目标劫持攻击通过操纵输入提示来改变模型执行的任务类型,分为同类型目标劫持和跨类型目标劫持。前者保持任务类型不变但改变具体目标,而后者则完全改变任务类型,如将翻译任务改为写诗。攻击者可能利用精心设计的提示词操纵模型,产生不适当、有偏见或有害的输出,甚至泄露模型的系统提示或用户输入的隐私信息。这会带来技术上的额外隐患以及其他方面的不利影响。

3.3 提示词泄露的影响

在 LLM 的注入攻击中,提示泄露是一个重要的风险点。这种攻击旨在诱导模型输出其接收到的系统提示或用户输入的提示,可能包括敏感信息或专有提示前缀等。系统提示泄露发生在攻击者成功诱导模型输出由开发人员设置的系统提示时,这些提示通常包括了 AI 应当遵守的规则和行为准则。用户提示泄露则涉及到用户输入的提示,可能包括专有的生成格式或个人隐私信息。泄露这些信息可能被攻击者用于恶意目的,进而影响用户的个人隐私或人身安全、影响企业的信誉以及诚信。

3.4 越狱攻击的影响

LLM 的越狱攻击,尤其是提示泄露的风险,涉及到攻击者通过精心构造的输入来获取模型的内部提示信息。越狱攻击的风险主要体现在生成不合规内容、泄露危险信息和利用安全性漏洞等方面。随着多模态模型的发展,整合了文本、图像和声音等多种数据形式的模型虽然增强了交互丰富性,但也可能带来新的安全风险。越狱攻击在多模态模型中可能更加复杂,需要针对不同模态的数据进行安全防护。大模型自身安全性机制的不足,如训练目标与安全目标之间的冲突,以及安全性机制未能与底层模型的复杂性相匹配,是越狱攻击成功的根本原因。越狱攻击带来的影响包括但不限于商业上的严重损失、企业信誉的下滑以及具体个人的实际财产损失等等。

3.5 本章小结

在本章中,本文进一步分析了 LLM 内容生成风险的具体影响。道德和伦理风险可能导致用户和读者受到误导,技术风险如注入攻击和目标劫持攻击威胁模型的安全性。提示词泄露和越狱攻击则暴露了 LLM 在安全性防护方面的不足。这些风险的影响不仅限于技术层面,还扩展到了社会和伦理层面,凸显了对LLM进行全面风险管理的紧迫性。为了减轻这些影响,必须加强技术防护,提高社会意识,并在伦理层面上进行深入反思和规范。

第四章 应对大语言模型内容生成风险的策略

4.1 技术改进

在 2024 年 6 月 19 日,牛津大学的研究团队发布了一项创新的研究成果——“语义熵”方法,这一方法被认为能够显著提高人工智能(AI)在回答问题时的可靠性[19]。该团队开发了一种基于统计学原理的新方法,为大型语言模型(LLM)引入了一种基于熵的不确定性估计器,旨在识别和检测 AI 生成的幻觉子集——即那些任意且不正确的输出。
“我们的方法通过基于熵的不确定性测量来量化确切答案的变异性,因为不同的答案在某些情况下可能表达相同的含义。”研究团队解释说[19]。“语义熵”通过在计算熵值之前,将具有相似含义的答案进行聚类,从而实现这一目标。一个较低的语义熵值表明了对 LLM 输出含义的高度信心。此外,“语义熵”方法能够跨越不同的语言模型和领域,检测自由格式文本生成中的虚构内容,而无需依赖于先前的领域知识。研究人员利用这一方法,指导大型语言模型对同一问题生成多个答案,然后根据答案的语义相似性进行聚类,并据此计算熵值。熵值的高低直接反映了模型回答的不确定性程度。

图 4-1 模型回答不确定性的图表化呈现[19]

值得注意的是,这种方法不仅关注了大语言模型在字面上的差异,更重要的是它强调了语义层面的一致性。这种关注点使得“语义熵”能够更准确地识别AI 的不准确输出,而不会被表达方式的多样性所混淆。
研究结果表明,“语义熵”方法在多个数据集和任务中均表现出色,能够有效地检测出大型语言模型的错误回答,并通过拒绝回答那些不确定性较高的问题来提升整体的准确率。尤为重要的是,这种方法无需对大模型本身进行修改,即可直接应用于现有的大型语言模型。这为我们提供了一种新的视角,即通过技术创新来规避LLMs可能犯下的错误。

4.2 政策制定和学术出版

此外,可以认识到,除了技术进步,政策激励和政府监管也是确保大型语言模型(LLM)生成内容的正确性和合规性的关键因素。在意识到技术局限后,政策层面对人才的激励显得尤为重要。例如,四川省依托其产业基础和科研优势,积极推进前沿科技的攻关突破,启动了一系列重大科技项目,并将人工智能作为其创新工程的首要任务[21]。日本政府在 2024 年 6 月 11 日的内阁会议上通过了《科学技术创新白皮书》,该白皮书特别强调了人工智能(AI)技术的重要性,并指出日本需要在这一领域持续进行投资[20]。这些政策措施体现了对以大型语言模型为核心的人工智能技术的高度重视,旨在通过政策支持推动技术创新和应用的深入发展。通过这种方式,可以确保人工智能技术在促进社会发展的同时,也能够符合伦理和法规的要求,减少由技术不足带来的风险。
同时,学术出版机构在使用大语言模型时要保持审慎的态度。一方面,学术出版机构要加强出版环节的人工把关;另一方面,建立健全的问责体系对于在学术出版环节中规范大语言模型的使用至关重要。增加相关声明,纳入出版常态......引入有关大语言模型的使用声明为学术出版提供了一个重要的规范机制。为学术出版的参与者提供切实可行的规范与指南至关重要[22]。学术界和出版界应当倡导学术诚信,将其作为应对大语言模型带来消极影响的重要手段。

4.3 本章小结

本章提出了一系列应对 LLM 内容生成风险的策略。技术改进方面,如牛津大学研究团队的“语义熵”方法为提高 AI 回答问题的可靠性提供了新的视角。政策制定方面,政府和产业界的积极介入,通过激励和监管确保了LLM生成内容的正确性和合规性。这些策略的实施有助于提升 LLM 的安全性和可靠性,同时促进了技术与社会伦理法规的协调发展。未来的工作应继续在技术创新和政策支持等方面进行探索,以实现 LLM 技术的可持续发展。

第五章 全文总结

5.1 总结研究发现

本研究采用了文献综述、案例分析和风险评估等多维度方法,对大型语言模型(LLM)在内容生成过程中的风险进行了系统化研究。研究揭示了 LLM 在技术层面的多个关键风险点,包括幻觉现象、模型偏见和数据泄露,这些风险有可能扭曲信息的传播路径,降低模型的可信度,并影响决策的准确性。在社会层面,虚假信息的扩散、版权侵犯以及不当内容的产生构成了对公共秩序和个人权益的潜在威胁。伦理层面的风险则体现在 LLM 可能引发的价值观偏差和隐私侵犯问题,这些问题触及了人工智能伦理的核心议题。
本研究不仅在学术上拓展了 LLM 风险研究的深度和广度,而且在实践层面为 LLM 的风险管理和政策制定提供了宝贵的参考。研究成果为技术开发者、政策制定者和社会各界提供了深入理解和有效应对 LLM 带来的挑战的指导,有助于推动 LLM 技术的稳健发展和广泛采纳。通过这些努力,可以促进LLM在遵守伦理标准的前提下,实现其在社会中的积极作用和价值最大化。

5.2 未来研究方向

未来的研究应专注于提高大型语言模型(LLM)的透明度和可解释性,这将降低技术风险并增强用户信任。同时,需要开发先进的数据隐私保护机制,以应对数据泄露和隐私侵犯的风险。此外,加强跨学科合作,整合法律、伦理、社会学等学科的见解,为 LLM 的风险管理提供全面的理论支持。最后,制定严格的监管政策,确保LLM 的应用不对社会秩序和个人权益造成负面影响。
通过这些研究,可以构建一个科学的 LLM 风险评估体系和应对机制,有效识别、评估并控制潜在风险。风险管理还应包括深入分析 LLM 应用中的伦理和法律问题,以及完善相关政策和法规。全面的风险管理策略将促进LLM技术的创新,提高社会对技术的信任和接受度,实现技术进步与社会责任的和谐统一。这对于确保LLM技术在符合伦理和社会标准的前提下,在各个领域实现积极应用具有重要意义。

参考文献

[1] Ji Z, Lee N, Frieske R, et al. Survey of hallucination in natural language generation[J]. ACM Computing Surveys, 2023, 55(12): 1-38.
[2] Parikh A P, Wang X, Gehrmann S, et al. ToTTo: A controlled table-to-text generation dataset[J]. arXiv preprint arXiv:2004.14373, 2020.
[3] Raunak V, Menezes A, Junczys-Dowmunt M. The curious case of hallucinations in neural machine translation[J]. arXiv preprint arXiv:2104.06683, 2021.
[4] Rohrbach A, Hendricks L A, Burns K, et al. Object hallucination in image captioning[J]. arXiv preprint arXiv:1809.02156, 2018.
[5] Vinyals O, Le Q. A neural conversational model[J]. arXiv preprint arXiv:1506.05869, 2015.
[6] 赵月,何锦雯,朱申辰,等.大语言模型安全现状与挑战[J].计算机科学,2024,51(1):68-71.
[7] Google to fix AI picture bot after 'woke' criticism [EB/OL]. https://www.bbc.com/news/business-68364690  2024
[8] 徐磊,胡亚豪,潘志松.针对大语言模型的偏见性研究综述[J].计算机应用研究.
[9] 张华平,李林翰,李春锦.ChatGPT中文性能测评与风险应对[J].数据分析与知识发现,2023,7(03):16-25.
[10] TTNews.[EB/OL]. http://tcci.ccf.org.cn/conference/2017/taskdata.php. 2017
[11] CMRC2018,DRCD,C3.[DB/OL]. https://github.com/CLUEbenchmark/CLUE. 2024
[12] Li P, Li W, He Z, et al. Dataset and neural recurrent sequence labeling model for open-domain factoid question answering[J]. arXiv preprint arXiv:1607.06275, 2016.
[13] JI Z W,NAYEON L,RITA F,et al.Survey of Hallucination in Natural Language Generation[J].ACM Computing Surveys 2023,55(12):1-38.
[14]孙玉发,郭锐.人工智能大语言模型对数字出版的影响及挑战[J].可持续发展经济导刊,2023(7):55-56.
[15] 赵月,何锦雯,朱申辰,等.大语言模型安全现状与挑战[J].计算机科学,2024,51(1):68-71.
[16] WEI J,WANG X Z,SCHUURMANS D.et al.Chain-of-Thought Prompting Elicits Reasoning in Large Language Mo-dels[C]//NeurIPS.2022.
[17] QIN Y J,HU S D,LIN Y K,et al.Tool Learning with Foundation Models[J].arXiv:2304.08354,2023.
[18] FáBIO P,IAN R.Ignore Previous Prompt:Attack Techniques For Language Models[J].arXiv:2211.09527,2022.
[19] Farquhar Sebastian,Kossen Jannik,Kuhn Lorenz,et al.Detecting hallucinations in large language models using semantic entropy[J].Nature,2024,630(8017):625-630.
[20] 日本新版科技白皮书聚焦人工智能 - 新华社 [EB/OL]. https://www.news.cn/20240611/2ee1dd1ceef443b8a370fb7787fe2123/c.html  2024
[21] 四川:人工智能列为一号创新工程 - 新华社 [EB/OL]. https://www.news.cn/20240527/4c441c55bf414487a85a412ece69813d/c.html  2024
[22] 徐敬宏,张如坤.大语言模型在学术出版应用中的失范风险与应对策略[J].中国编辑,2024,(02):36-42.

致谢

恭敬自在心中,无须华于词藻。

感谢科创营诸位导师和对本论文工作有直接贡献和帮助的人士和单位。
感谢本小组内每位成员的辛勤耕耘,是大家的努力才有了我们的论文。
感谢上海交通大学提供了知网账号供我们写作。
感谢Google Scholar让我们站在巨人的肩膀上。