追问daily | 大脑可以无视感官产生情绪;在神经科学预测上LLMs超过人类专家;大脑如何在喧嚣中保持专注?

   日期:2024-11-07     作者:caijiyuan       评论:0    移动:http://oml01z.riyuangf.com/mobile/news/2635.html
核心提示:整理|ChatGPT编辑|存源脑科学动态大脑如何在喧嚣中保持专注?一项在布朗大学卡尼脑科学研究所进行的新研究发现了,人类如何通

追问daily | 大脑可以无视感官产生情绪;在神经科学预测上LLMs超过人类专家;大脑如何在喧嚣中保持专注?

整理|ChatGPT

编辑|存源

脑科学动态

大脑如何在喧嚣中保持专注?

一项在布朗大学卡尼脑科学研究所进行的新研究发现了,人类如何通过增强相关信息的处理来提高注意力集中度,并通过排除无关干扰来优化信息过滤。

研究团队进行的认知任务测试中,参与者看到一大团绿色和紫色的点在左右移动,任务的难度各不相同,包括区分点的运动和颜色。研究表明,背外侧前扣带皮层能够独立地识别和记录我们要关注的目标(比如听朋友说话)和我们需要忽略的干扰因素(比如周围的噪音)的难度。

进一步研究发现,在大脑的顶叶小脑沟中,对目标和干扰因素的处理既有重叠也相互独立,好似该区域设有两个旋钮:一个用于增强注意力,另一个用于过滤干扰。特别地,在绿色和紫色点数量相似的情况下,大脑可能会调整这些旋钮,以提高对特定颜色的敏感度,同时降低对运动的敏感度。这项发现突出了注意力限制并非大脑结构简单,而是其协调能力高度复杂的结果。研究发表在Nature Human Behaviour期刊。

#布朗大学 #大脑机制 #注意力集中 #认知灵活性 #心理学研究

阅读论文:

Ritz, H., & Shenhav, A. (2024). Orthogonal neural encoding of targets and distractors supports multivariate cognitive control. Nature Human Behaviour, 1–17. https://doi.org/10.1038/s41562-024-01826-7

大脑可以无视感官产生情绪

在最近发表的一项由卢卡高级研究院和都灵大学合作进行的研究,揭示了大脑是如何构建感官特定或抽象编码的情感体验的。

研究团队通过展示电影《101斑点狗》给50名志愿者,并使用功能性磁共振成像追踪他们在观影过程中的大脑活动。实验对象包括正常发育的个体以及先天性盲聋的志愿者,其中盲聋志愿者分别接触到了该电影的音频剧本和无声版本。研究还包括了另外124名独立参与者,他们被邀请分享并评价在观看该电影时的情感体验,以预测在经历愉悦、恐惧和悲伤等情绪时,有无感官剥夺者的大脑反应。

研究结果显示,情感类别在大脑中的表现与感官经验和模式无关。特别值得注意的是,涵盖感官、前额叶和颞叶区域的分布式网络共同编码情感实例。研究强调,内侧前额叶皮层是储存不依赖于先前感官经验或模式的情感的抽象表示的关键区域。这表明,尽管我们往往认为情感直接与外部世界的事件相关,但实际上大脑产生情感意义的方式并不取决于我们是否能看到或听到这些事件。研究发表于Science Advances上。

#感知 #情感 #神经科学 #抽象编码 #情感体验

阅读论文:

Lettieri, G., Handjaras, G., Cappello, E. M., Setti, F., Bottari, D., Bruno, V., Diano, M., Leo, A., Tinti, C., Garbarini, F., Pietrini, P., Ricciardi, E., & Cecchetti, L. (2024). Dissecting abstract, modality-specific and experience-dependent coding of affect in the human brain. Science Advances, 10(10), eadk6840. https://doi.org/10.1126/sciadv.adk6840

多语种能力者的语言网络有何不同?

一项新研究揭示了多语言使用者大脑处理母语的独特方式。研究发现,在精通五种及以上语言的人中,不同语言的听力激活了大脑中相同的语言区域。尽管语言网络通常对使用者更熟悉的语言有更强的反应,但母语是个例外,其处理似乎更加轻松,涉及的大脑活动明显减少。

这种现象可能是由于人们使用母语的时间更长,使得处理母语相对于其他熟悉语言需要较少的大脑活动。研究通过对34名至少精通五种语言的多语者进行实验得出这一结论。此外,研究还指出,当听到与已知语言有关联的不熟悉语言时,大脑的语言网络会变得更加活跃。同时,听非母语时,所谓的多需求网络(MDN)也会被激活,以帮助处理更具挑战性的任务。研究发表在Cerebral Cortex杂志上。

#多语种 #大脑活动 #母语处理 #语言网络 #磁共振成像

阅读论文:

Saima Malik-Moraleda et al, Functional characterization of the language network of polyglots and hyperpolyglots with precision fMRI, Cerebral Cortex (2024). DOI: 10.1093/cercor/bhae049

探索-利用,预测大脑发育的新模型

巴黎大脑研究所研究人员开发出一种计算机模型,模拟了秀丽隐杆线虫大脑的神经连接发育过程。这个模型采用了“探索-利用”动力学原理,其中“探索”阶段涉及对潜在神经连接的随机搜索,而“利用”阶段则专注于强化这些连接,以提升网络的总体功能。

模型将神经网络视作一个图形,其节点代表神经元,边代表它们之间的连接。通过随机添加或删除这些边(即探索),并基于功能效率来增强有效连接(即利用),该模型能够模拟出成熟的神经网络结构。

在动物神经系统中,这些连接的形成并不是随机的,而是遵循特定的遗传规则,并受到自然选择的影响。研究成果揭示,通过“探索-利用”模型,即便仅凭生物在出生时和成年时的状态,也能够精确描述其整个发育过程。研究发表在Physical Review Letters上。

#大脑发育 #神经连接 #计算机模型 #秀丽隐杆线虫 #网络动态

阅读论文:

Dichio, V., & De Vico Fallani, F. (2024). Exploration-Exploitation Paradigm for Networked Biological Systems. Physical Review Letters, 132(9), 098402. https://doi.org/10.1103/PhysRevLett.132.098402

大脑记忆波:揭秘记忆存储与检索的新机制

哥伦比亚工程学院生物医学工程副教授Joshua Jacobs领导的研究团队,最近发表了一项新研究揭示了大脑如何利用一种被称为大脑行波(traveling waves)的新型脑波,在记忆存储和检索过程中迅速协调不同区域的新机制。

该研究基于93名难治性癫痫患者的数据,这些患者正在接受脑部电极监测。通过这些电极,研究人员能够记录参与者在完成记忆任务时的脑活动。他们发现,在记忆存储过程中,行波从大脑的后部向前部移动;而在回忆记忆时,则方向相反。这种行波的传播方向在不同个体间表现出多样性,并且对记忆任务的成功率有显著影响。更为重要的是,当行波沿着对记忆存储和检索有利的方向移动时,参与者在记忆测试中的表现更好。研究发表在Nature Human Behaviour杂志上。

#记忆存储 #记忆检索 #脑波 #神经科学 #大脑协调

阅读论文:

Mohan, U. R., Zhang, H., Ermentrout, B., & Jacobs, J. (2024). The direction of theta and alpha travelling waves modulates human memory processing. Nature Human Behaviour, 1–12. https://doi.org/10.1038/s41562-024-01838-3

AI 行业动态

NVIDIA推出AI生成技术新认证,助力技术人才提升专业能力

NVIDIA近日推出了一项新的专业认证——NCA生成式AI LLMs认证,针对生成式人工智能,旨在帮助开发者在这一重要领域树立技术信誉。这是NVIDIA首次提供的专业认证,使得开发者、职业人士等能够验证并展示他们在生成式AI领域的技能和专长。该认证是一个入门级证书,验证了使用NVIDIA解决方案开发、集成和维护基于AI驱动的应用程序的基础概念。考试在线进行,远程监考,包括50个问题,时间限制为60分钟。考试涵盖的主题包括机器学习和神经网络的基础知识、提示工程、对齐、数据分析与可视化、实验设计等。该认证项目引入了两个生成式AI的初级认证,重点在于大型语言模型和多模态工作流的熟练应用。

NVIDIA创始人兼CEO黄仁勋最近表示:“生成式AI已成为全球政府、产业和组织关注的焦点,它的变革能力不可小觑。” 认证将从GTC开始提供,现场参与者还可接受推荐培训,为认证考试做准备。“各行各业的组织都需要提升这项变革技术的专业知识,”NVIDIA开发者项目副总裁Greg Estes说,“我们的目标是帮助提升工作人员技能,增强专业人士技能,并使个人能够展示他们的熟练程度,以在就业市场中获得竞争优势。”

#NVIDIA #生成式AI #专业认证 #技术提升 #大型语言模型

阅读更多:

https://www.nvidia.com/en-us/learn/certification/generative-ai-llm-associate/

OpenAI风波尘埃落定:Sam Altman洗清“冤屈”,重掌CEO宝座

历经112天的内部风波后,OpenAI的治理结构终于重归平静。公司CEO Sam Altman,在经历被解雇和公开争议后,被重新任命并重返董事会。经著名律师事务所WilmerHale深入调查,证实Altman行为无过,之前的解雇决策被认为是前董事会与Altman关系破裂的直接结果。

同时,OpenAI宣布董事会迎来三位资深女性新成员,包括Sue Desmond-Hellmann、Nicole Seligman和Fidji Simo,其背景涵盖技术、非营利组织和董事会治理等多个领域。而首席科学家Ilya Sutskever的去留问题仍悬而未决。

#OpenAI #SamAltman #治理结构改革 #董事会新成员 #内部冲突解决

阅读更多:

https://openai.com/blog/review-completed-altman-brockman-to-continue-to-lead-openai

全球AI人才兴起,科技行业面临剧变

全球AI人才报告最新发布,全球顶尖AI人才中近半由中国培养,美国程序员正面临压力,体现在薪资下降和面试难度升级。随着OpenAI等公司提供高额薪资招募AI专家,涉AI岗位薪资普遍高于非AI岗位。美国科技行业正在经历转型,硅谷大厂裁员超40万,科技职场竞争加剧。面试难度达到前所未有的高度,多家公司采用严苛的面试和薪资谈判策略,其中meta尤为显著。

尽管科技巨头裁员不断,AI领域的人才需求和薪酬却在增长。特别是AIGC技术迅猛发展,相关岗位需求激增。全球AI人才分布报告显示,美国和中国是顶尖AI人才的主要工作地,同时,中国和印度在培养和保留本国人才方面有显著进步。科技行业面临剧变,不仅面临裁员压力,同时AI和AIGC技术对人才需求和工作方式带来重大影响。

#全球AI人才 #科技行业变革 #裁员潮 #面试挑战 #薪资变动

Pika推出视频音效生成功能

近日,Pika推出了Sound Effects。用户现在可以通过简单描述或让Pika根据视频内容自动生成匹配的音效。Pika官网已展示多个示例,如烤培根视频自动生成的声音,或根据用户指定的“日落时田野上的烟火”这样的prompt来生成匹配视频的音效。操作简单,用户只需选择“Sound Effects”选项并描述所需声音,即可生成与视频完美搭配的音效。目前,这项功能仅对超级合作者和Pro用户开放测试,但Pika计划不久后向所有用户推广。

#Pika #SoundEffects #AI音效生成 #多模态AI #视频制作革新

阅读更多:

https://openai.com/blog/review-completed-altman-brockman-to-continue-to-lead-openai

AI 研发动态

LLMs在神经科学预测上超过人类专家

最新研究显示,大型语言模型(LLMs)在整合庞大的科学文献方面显示出潜力,能够预测神经科学结果,甚至超过人类专家。研究团队创建了一个名为“BrainBench”的前瞻性基准测试,专注于预测而非仅仅检索事实,以应对LLMs可能出现的“幻觉”问题。这一基准测试要求预测《神经科学杂志》摘要中哪个版本给出了实际结果。

在测试中,15个考虑到的LLMs都在BrainBench的预测任务上大幅超越了人类专家,准确地预测了神经科学的结果,这包括各个子领域。值得注意的是,当人类专家和LLMs对他们的决策更加自信时,他们的预测也更可能正确,这对于人机合作是有益的。

特别地,研究团队对一款名为Llama-2-7b(聊天)的模型进行了神经科学知识的增强处理,创造出性能更佳的BrainGPT。经过测试,BrainGPT在BrainBench上的表现优于其他模型。此外,研究表明没有从训练集到测试集的信息泄露。研究者强调,这种方法并非仅限于神经科学,其他知识密集型领域也可采用相同模式。

#人工智能 #LLMs #神经科学 #预测研究 #BrainBench

阅读论文:

Luo, X., Rechardt, A., Sun, G., Nejad, K. K., Yáñez, F., Yilmaz, B., Lee, K., Cohen, A. O., Borghesani, V., Pashkov, A., Marinazzo, D., Nicholas, J., Salatiello, A., Sucholutsky, I., Minervini, P., Razavi, S., Rocca, R., Yusifov, E., Okalova, T., … Love, B. C. (2024). Large language models surpass human experts in predicting neuroscience results (arXiv:2403.03230). arXiv. http://arxiv.org/abs/2403.03230

项目地址:

https://huggingface.co/BrainGPT

OpenGraph:迈向开放图基础模型

图学习在诸如推荐系统和社交网络分析等多个领域扮演了不可或缺的角色,其中图神经网络(GNNs)作为解析图结构信息的领先技术,已逐渐显现其重要性。这些GNNs通过有效揭示图的底层结构,大幅提升了如链接预测和节点分类等图学习任务的性能。尽管取得了成功,但这些高级方法在泛化到与训练实例显著不同的未见图数据时常遇到挑战。为了推动图学习领域的进步,最新发表的研究,开发一个通用的图基础模型,名为OpenGraph。该模型旨在理解不同图数据中的复杂拓扑模式,使其在不同下游数据集的零样本图学习任务中表现卓越。

在OpenGraph模型的开发中,首先,他们提出了一个统一的图分词器,帮助模型在面对显著不同于训练数据的图属性时,仍能保持良好的泛化能力。其次,他们开发了一个可扩展的图转换器作为基础编码器,有效捕获节点之间的依赖关系及其在全局拓扑环境中的位置。第三,他们引入了一种由大语言模型增强的数据增强机制,以应对现实世界中数据稀缺的挑战。广泛的实验验证了该框架的有效性。通过适应新的图特性并深入理解多种图的微妙之处,该方法在各种环境和领域中实现了卓越的零样本图学习性能。

#图学习 #图神经网络 #OpenGraph #零样本学习 #数据增强

阅读论文:

Xia, L., Kao, B., & Huang, C. (2024). OpenGraph: Towards Open Graph Foundation Models (arXiv:2403.01121). arXiv. https://doi.org/10.48550/arXiv.2403.01121

好奇心驱动的红队测试,提高语言模型安全性

随着大型语言模型在多种自然语言应用中显示出巨大潜力,其生成不准确或有害内容的风险也日益增加。目前,人们通过招募“红队”测试人员来设计输入提示,探测这些模型产生不良反应的情况。然而,完全依赖人工测试者既耗时又成本高昂。最近的研究通过使用强化学习(RL)训练一个独立的红队LLM来自动化红队测试,该模型可以生成测试案例,最大限度地诱发目标LLM的不良反应。但现有的RL方法只能生成少量有效的测试案例,导致无法广泛覆盖引发目标LLM不良反应的提示范围。

为了克服这一限制,研究人员提出了一种基于好奇心驱动的红队测试(CRT)方法,它通过优化新颖性来提高测试案例的覆盖率。该方法利用基于文本相似度度量的好奇心驱动探索,其中低相似度指示更高的新颖性。此外,CRT结合了熵奖励(促使策略接近均匀分布)和新颖性奖励,以激励红队模型探索并生成新的测试案例。

与现有方法相比,CRT在保持或提高测试效果的同时,实现了更广泛的测试案例覆盖。值得注意的是,CRT方法成功地诱发了LLaMA2模型的有害反应,而该模型已经通过人类偏好进行了大量微调,以避免产生有害输出。

#大型语言模型 #红队测试 #强化学习 #好奇心驱动 #语言模型安全

阅读论文:

Hong, Z.-W., Shenfeld, I., Wang, T.-H., Chuang, Y.-S., Pareja, A., Glass, J., Srivastava, A., & Agrawal, P. (2024). Curiosity-driven Red-teaming for Large Language Models (arXiv:2402.19464). arXiv. https://doi.org/10.48550/arXiv.2402.19464

项目地址:

https://github.com/Improbable-AI/curiosity_redteam

智能模拟与真实决策:AI在军事策略中的作用及其局限性

最新的一篇研究聚焦于人工智能(AI)在军事策略中的应用,尤其是大型语言模型(LLMs)在模拟战争游戏中的表现。在一个虚构的美中危机场景中,研究者们比较了107位国家安全专家的决策和LLMs模拟的响应。结果显示,尽管LLMs与人类在决策上有相似之处,LLMs与人类在模拟的战争游戏中对于某些决策有相似的响应。在21种可能的行动中,大约有一半的行动上,LLMs模拟出的玩家和人类玩家的选择是相似的。

但在策略偏好上存在显著的定量和定性差异。在模拟战争游戏的特定行动选择上,LLMs和人类的偏好存在系统性的差异。例如,LLMs倾向于选择更加积极的行动,如“自动开火”(GPT-3.5)或仅用于自动瞄准的AI武器(GPT-4),而人类玩家则倾向于更为保守或防御性的策略。研究还发现,LLMs在模拟对话时显示出与人类玩家的本质区别。LLMs倾向于进行简短的陈述,很少与其他玩家发生不同意见,通常仅表达对某个选项的偏好并进行论证,而不是基于之前的陈述进行互动。此外,LLMs无法考虑玩家的背景属性和个人偏好,在战略讨论中显示出荒谬的和谐,即使在强调必须通过讨论达成一致的提示下也是如此。

文章指出,尽管LLMs在战争规划和决策中的应用可能提高效率和灵活性,但在完全替代人类建议之前,决策者应谨慎行事,理解并最小化模型中的偏差及其原因。

#人工智能 #军事策略 #语言模型 #战争游戏 #决策模拟

阅读论文:

Lamparth, M., Corso, A., Ganz, J., Mastro, O. S., Schneider, J., & Trinkunas, H. (2024). Human vs. Machine: Language Models and Wargames (arXiv:2403.03407). arXiv. http://arxiv.org/abs/2403.03407

推动全球医疗AI发展:医疗大型语言模型的多语种突破

为了让医疗人工智能的进步惠及更广泛的人群,研究人员致力于开发涵盖全球61亿人口使用的六种主要语言的医疗大型语言模型(LLMs)。这一努力导致了多语种医疗数据集ApolloCorpora和评估基准XMedBench的创建。在多语种医疗基准测试中,新发布的Apollo模型在不同规模(包括0.5B、1.8B、2B、6B和7B)中均取得了最佳性能。特别值得一提的是,Apollo-7B模型在达到70B规模的多语种医疗LLMs中表现最为先进。此外,这些轻量级模型还可以在未进行微调的情况下,通过代理调整方式,提升更大模型的多语种医疗能力。

#全球医疗AI #多语种LLMs #ApolloCorpora #XMedBench #语言模型创新

阅读论文:

Wang, X., Chen, N., Chen, J., Hu, Y., Wang, Y., Wu, X., Gao, A., Wan, X., Li, H., & Wang, B. (2024). Apollo: Lightweight Multilingual Medical LLMs towards Democratizing Medical AI to 6B People (arXiv:2403.03640). arXiv. https://doi.org/10.48550/arXiv.2403.03640

VBART:突破性土耳其语自然语言处理模型

VBART是首个从零开始预训练的土耳其语序列到序列的大型语言模型(LLMs)。该模型融合了BART和mBART模型的优良理念,提供大型(Large)和超大型(XLarge)两种规模。VBART模型在抽象文本摘要、标题生成、文本释义、问答及问题生成等任务上,均超越了现有的最先进成果。它们支持针对未来文本生成任务和数据集的微调,为土耳其语自然语言处理(NLP)研究开辟新道路。

研究表明,针对土耳其语的预训练LLM性能比多语种模型提高了3倍,不仅提升了现有成果,还实现了高效的训练和推理模型。此外,研究展示的单语种分词器比OpenAI的多语种分词器高出7倍的效率。最后,研究者提出了一种扩大现有预训练LLM的方法,并探讨了Chinchilla规模定律对序列到序列遮蔽语言模型的相关性。微调后的模型、分词器和清洗后的135GB网络语料库已公开。

#VBART #土耳其语NLP #语言模型 #自然语言处理 #序列到序列技术

项目地址:

https://huggingface.co/vngrs-ai

阅读论文:

Turker, M., Ari, M. E., & Han, A. (2024). VBART: The Turkish LLM (arXiv:2403.01308). arXiv. https://doi.org/10.48550/arXiv.2403.01308

将大语言模型融入创意过程

随着生成型AI技术,尤其是大型语言模型(LLM)的日益普及,其对创意工作的影响日渐凸显。最新论文探讨了将LLM融入创意过程的两个阶段:思想生成的发散阶段,以及想法评估和选择的收敛阶段。研究人员设计了一个团队-AI协作的“脑力写作”创意框架,将LLM作为小组创意过程的增强工具,并评估了创意过程及其产出的解决方案空间。为了评估LLM在想法评估过程中的潜力,研究者设计了一个评估引擎,并将其与三名专家和六名新手评估员的想法评级进行了对比。

研究发现,将LLM融入“脑力写作”可以增强创意过程及其成果。LLM在创意发散阶段的应用能够扩大思想的范围,为小组提供独特或扩展的观点和可能解决方案。LLM在细节上的贡献,例如提供更具体的解决方案或特性,有助于促进从传统的图形用户界面转向新的交互方式。通过LLM,学生能够探索不同的方法,并考虑与传统移动应用或屏幕基础穿戴设备不同的新颖功能。

使用GPT-4对创意进行评估,结果表明LLM在内部评估的一致性较高,与人类专家和新手评估员的评分具有中等正相关性。GPT-4给出的评分与由人类评估员(专家和新手)选择的最终项目想法的评分一致,显示出LLM在评估想法质量方面的潜力。

#生成型AI #大型语言模型 #创意过程 #脑力写作 #人机交互

阅读论文:

Shaer, O., Cooper, A., Mokryn, O., Kun, A. L., & Shoshan, H. B. (2024). AI-Augmented Brainwriting: Investigating the use of LLMs in group ideation (arXiv:2402.14978). arXiv. http://arxiv.org/abs/2402.14978

追问互动

 
特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。

举报收藏 0打赏 0评论 0
 
更多>同类最新资讯
0相关评论

相关文章
最新文章
推荐文章
推荐图文
最新资讯
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号