今天, 生成式人工智能 正在社会的各个方面发挥变革的力量。它的影响力从信息技术和医疗保健延伸到零售和艺术,渗透到我们的日常生活中。
按照emarketer 的研究,生成式人工智能显示出早期采用情况,预计在最初的四年内,仅在美国就有 1 亿或更多用户。因此,评估这项技术的社会影响至关重要。
虽然它承诺提高效率、生产力和经济效益,但也有人担心人工智能驱动的生成系统的道德使用。
本文探讨了生成式人工智能如何重新定义规范、挑战道德和社会界限,并评估对管理社会影响的监管框架的需求。
生成式人工智能极大地影响了我们的生活,改变了我们在数字世界中运作和互动的方式。
让我们探讨一下它的一些积极和消极的社会影响。
好处
自推出以来的短短几年内,生成式人工智能已经改变了业务运营,开辟了新的创造力途径,有望提高效率并改善市场动态。
我们来讨论一下它的积极社会影响:
1. 快捷的业务流程
在接下来的几年里,生成式人工智能可以削减 SG&A(销售、一般和行政) 成本降低 40%.
生成式人工智能加速发展 业务流程管理 通过自动化复杂任务、促进创新和减少手动工作量. 例如,在数据分析中,像 Google 的模型 机器学习 加速从大型数据集中提取见解的过程。
因此,企业可以享受更好的市场分析和更快的上市时间。
2.让创意内容更容易获取
超过 50%的营销人员 归功于生成式人工智能提高了参与度、转化率和更快的创意周期的性能。
此外,生成式人工智能工具已经自动化 内容创作,只需简单点击即可制作图像、音频、视频等元素。例如,类似的工具 canva 和 midjourney 利用生成式人工智能帮助用户轻松创建具有视觉吸引力的图形和强大的图像。
此外,像 ChatGPT 帮助根据有关目标受众的用户提示集思广益内容创意。这增强了用户体验并扩大了创意内容的范围,将艺术家和企业家与全球受众直接联系起来。
3. 知识触手可及
哈佛大学的研究表明,使用人工智能驱动的自适应学习项目的学生测试成绩显着提高了 62%。
生成式 AI 通过 ChatGPT 或 Bard.ai 等大型语言模型 (LLM) 为我们提供即时访问知识。它们回答问题、生成内容并翻译语言,从而使信息检索变得高效且个性化。 此外,它还赋能教育,提供量身定制的辅导和个性化的学习体验,通过持续的自学来丰富教育旅程。
例如, 可汗实验室是可汗学院推出的人工智能工具,充当学习编码的写作教练,并提供提示来指导学生学习、辩论和协作。
坏处
尽管产生了积极的影响,但生成式人工智能的广泛使用也带来了挑战。
我们来探讨一下它的负面社会影响:
1. 缺乏质量控制
人们可以将生成式人工智能模型的输出视为客观事实,而忽略了潜在的不准确之处。这可能会削弱对信息来源的信任,并导致错误信息的传播,影响社会观念和决策。
不准确的人工智能输出引发了人们对人工智能生成内容的真实性和准确性的担忧。虽然现有的监管框架主要关注数据隐私和安全,但很难训练模型来处理所有可能的情况。
这种复杂性使得调节每个模型的输出具有挑战性,特别是在用户提示可能无意中生成有害内容的情况下。
2. 有偏见的人工智能
生成式人工智能的好坏取决于它所训练的数据。从数据收集到模型部署的任何阶段都可能出现偏差,从而无法准确地代表总体人群的多样性。
例如, 来自stablediffusion的 5,000 张图像 表明它加剧了种族和性别不平等。在这项分析中,stablediffusion(一种文本到图像的模型)将白人男性描绘成首选,而女性则扮演从属角色。令人不安的是,它还对深色皮肤的男性和女性进行种族歧视。
应对这些挑战需要承认数据偏差,并在整个人工智能生命周期中实施强有力的监管框架,以确保人工智能生成系统的公平性和问责制。
3. 虚假行为泛滥
Deepfakes 使用生成式人工智能模型创建的错误信息可以影响大众并操纵公众舆论。此外,Deepfakes可能会煽动武装冲突,对国内外国家安全构成独特的威胁。
Deepfakes在互联网上不受控制地传播给数百万人带来了负面影响,并加剧了政治、宗教和社会不和。例如,2019 年,据称 deepfake 在加蓬未遂政变中发挥了作用。
这引发了关于人工智能生成信息的伦理影响的紧迫问题。
4. 没有定义所有权的框架
目前,还没有一个全面的框架来定义人工智能生成内容的所有权。谁拥有人工智能系统生成和处理的数据的问题仍未解决。
例如,在 2022 年底启动的一个法律案件中,三位艺术家联手对各个 Generative AI 平台提起集体诉讼。
该诉讼称,这些人工智能系统在没有获得必要许可的情况下使用了艺术家的原创作品。艺术家们认为,这些平台利用其独特的风格来训练人工智能,使用户能够生成可能缺乏对其现有受保护创作进行充分改造的作品。
此外, 生成式人工智能 使得广泛的内容生成成为可能,而创意产业中的人类专业人员所产生的价值就变得值得怀疑。这也对知识产权的定义和保护提出了挑战。
生成式人工智能缺乏全面的监管框架,引发了人们对其对社会产生建设性和有害影响的可能性的担忧。
有影响力的利益相关者正在倡导建立强有力的监管框架。
例如,欧洲 提出了首个用于灌输信任的人工智能监管框架,预计将于 2024 年采用。该框架采用面向未来的方法,其规则与能够适应技术变革的人工智能应用程序相关。
它还建议确立用户和提供商的义务,建议进行上市前合格评估,并建议在明确的治理结构下进行上市后执法。
此外,阿达·洛夫莱斯学院AI监管的倡导者报告了精心设计的监管对于防止权力集中、确保准入、提供补救机制和利益最大化的重要性。
实施监管框架将在解决相关风险方面迈出一大步。这项技术对社会产生深远影响,需要监督、深思熟虑的监管以及利益相关者之间的持续对话。