BET9首页入口登录

BET9首页入口登录专业为您提供体育直播,体育押注,体育竞猜等娱乐方式,带给你不一样的视觉新体验,你也值得拥有,快乐就是如此简单

微软研究院刘铁岩:AI for Science追求人类智能最光辉的一面

人工智能发展主要分为计算智能、感知智能、认知智能。微软亚洲研究院由低到高,将人类智能分为计算与记忆力、感知、认知、创造力、智慧五大层级,而人工智能将逐步从最底层开始对人类智能进行模拟。
在谈及AIforScience(人工智能驱动的科学研究)遭遇的瓶颈时,中科院院士、北京科学智能研究院院长、北京大学国际机器学习研究中心主任鄂维南认为,最大的问题是组织能力,应把资源用好,“用到该用的地方”。黄铁军补充道,科学研究中缺少合作性存在“各自为战”,真做“大问题”时难有突破,追求短频快。同时,汤超和鄂维南都认为,从长远来看人才肯定是最大的瓶颈。
编者按:大模型时代的到来,使得人工智能成为了真正影响人类社会的重要技术之一,如何打造“负责任的人工智能”的问题正变得愈发迫切和关键。一直以来,微软始终致力于依照以人为本的伦理原则推进人工智能的发展,微软亚洲研究院也将“社会责任人工智能(SocietalAI)”作为一个重要的研究方向。
在如今处处都追求降本增效的时代,把属于机器的工作交给机器或许是个不错的选择。正如前不久微软发布的Copilot,其本意并非是取代人类工作,而是为每个人配备一个人工智能助手,就像是一名副驾驶,辅佐用户做出更聪明的决策,释放更大的生产力。
一年前,当我们还没有沉浸在人工智能为我们撰写论文、或许会消灭人类的美好时光时,科技界最痴迷的就是元宇宙。每家公司似乎都为这一即将到来的模式制定了战略。令人失望的销售额和生成式人工智能的崛起将这一讨论推到了风口浪尖。但是,苹果公司的大举进入重新激起了人们的兴趣,并对曾经无可争议的元宇宙之王马克-扎克伯格追求混合现实的方式提出了挑战。该领域的其他参与者将在这两条道路中做出选择。即使是微软这样的巨头也不例外。最近微软首席执行官萨蒂亚-纳德拉(SatyaNadella)在交谈时,重申了追求"存在感"的承诺。
2017年,微软研究院开发了、作词、谱曲系统。中央电视台《机智过人》节目就曾播出过微软的电脑作词谱曲与人类选手进行词曲创作比拼的节目。这件事说明,如果有大数据,那么机器学习或者深度学习就可以模拟人类的创造能力,智能地造出一些作品来;也可以与专家合作,帮助专家产生更好的想法。
回到AI领域也是一样,由微软研究院发布的一篇论文证实对AI大模型所进行的任何AI对齐行为,都会损失其准确性和性能,因为ChatGPT这类产品是基于人类反馈的强化学习来构建智能,人工强行干预的AI对齐会阻碍大模型对任务理解的真实程度。所以自然而然的,AI大模型的性能就出现了开局即巅峰的情况。
微软亚洲研究院由低到高将人类智能分为计算与记忆力、感知、认知、创造力、智慧五大层级,而人工智能将逐步从最底层开始对人类智能进行模拟。
agieval由微软研究院发布,专门用于评估基础模型在人类认知和问题解决相关任务中表现出的一般能力,从而实现模型智能和人类智能的对比。该基准选取20种面向人类考生的考试,包括大学入学考试(中国高考和美国sat考试)、法学入学考试、数学竞赛、律师资格考试、国家公务员考试等。
如果人类明了,使ChatGPT做到目前的水平,最早来源于微软研究院的一群研究员当初一拍脑袋决定了使用概率论(即数学方法)来解决语文问题(一般来说,物理学家们遇到棘手的数学问题,第一个念头也是引入概率论这瓶万金油,因此人工智能科学家们的这下脑袋拍得并不奇怪),所以对于人工智能来说,量子坍缩和股市涨落很可能是一回事,不知道会做何感想?但那是人工智能的智能,不属于人类智能。所以我们还是回到我们人类可以掌控的熵上面来。
微软亚洲研究院副院长、微软杰出首席科学家刘铁岩发表演讲“AIforScience:科学发现的第五范式”,从利用人工智能求解科学方程、分析科学数据以及自动发现科学规律等维度进行探讨,并分享了微软研究院相关研究成果。
在人工智能与机器人技术领域,“人工智能”有两层含义,既指在计算机里创造人类智能的基础科学探索,也指对海量数据的建模工作,而这两类工作追求的目标截然不同。目前,科技的快速进步主要体现在以数据为中心的人工智能领域,但其系统因由人类设计和搭建而存在一些严重的缺陷。艾伦人工智能研究院CEO奥伦·埃奇奥尼(OrenEtzioni)表示,我们将继续期待在未来的某天,人工智能系统能够很好地提出和阐述问题,并在理解与构建达到人类层次智能的基础科学问题上有所建树。
我之前听过微软亚洲研究院首席科学家谢幸博士的讲座,关于大模型的责任和挑战。在讲座里就指出,“负责任的AI”,需要符合人类价值观+维护数据主权,同时遵守六大原则,即“公平、可靠与安全、包容、透明、可信、保护隐私”。至少从目前来看,通用人工智能还处于野蛮生长阶段,大家更关心大模型能用来做什么事情,但对它能造成什么危险后果还不够关心。图灵奖得主YoshuaBengio、马斯克等上千位大佬签联名信呼吁全球实验室暂停炼更高级的大模型,一方面可能的确有私心,希望OpenAI停一停、等一等,但另一方面更是希望能给人类的监管更多的时间。
在微软亚洲研究院“社会责任人工智能”系列研讨会的法律与伦理专题讨论上,来自日内瓦大学数字法学中心的JacquesdeWerra教授指出,目前透明度在版权生态系统中正变得愈发重要。由于目前的知识产权只保护人类作者创作的作品,披露创作中非人类作者来源的部分是必要的。为了应对这一问题,法律和技术两方面的解决方案都应被考虑在内。香港大学的孙皓琛教授认为确定AI生成内容的独创性门槛对于讨论AI生成内容是否需要被版权法保护是至关重要的。
1、8月18日,全国汽车标准化技术委员会发布消息称,2023年6月至8月,中国汽车标准化研究院组织来自华为、地平线、同济大学、百度的多位自动驾驶、人工智能及法律领域专家以基于标准考量的车用人工智能伦理共识为主题,开展了系列研讨会议,最终达成8项共识:坚持以人为本,遵守法律法规,明确追溯途径,追求公平与非歧视,增强透明性和可解释性,提升人类生存现状,保障隐私,尊重人类的控制权。
在传统机器基准测试和人类专业考试之外,研究人员还对大语言模型做出更广泛的探讨。今年3月,微软研究院的SébastienBubeck及其同事就放出了题为《通用人工智能的火花:GPT-4早期实验》的预发表版本,在行业内引起热议。他们使用GPT-4的早期版本记录下一系列令人惊讶的功能,而且其中很多功能与语言并没有直接或明确的联系。其中一个值得注意的亮点,就是它能通过用于评估心理学理论的测试。心理学理论是人类的一种核心能力,用于预测和推理他人的心理状态。他们在文章中写道,“鉴于GPT-4在功能上的广度和深度,我们有理由相信它已经代表着通用人工智能(AGI)系统的早期(但尚不完美)版本。”
在甲骨学研究中,甲骨“校重”整理是一项费事费力但又极其重要的基础性研究工作。微软亚洲研究院与首都师范大学甲骨文研究中心莫伯峰教授团队合作开发的甲骨文校重助手Diviner,第一次将自监督AI模型引入到甲骨文“校重”工作中,并取得数百项新成果,为甲骨文整理领域开创了人工智能与人类专家协作(AI+HI)的全新研究范式。
微软亚洲研究院资深首席研究员谢幸认为,负责任的人工智能需要技术和社会学两方面的策略双管齐下,而且有必要将大模型与多样化、个性化以及特定文化的人类价值观结合起来,达到一致。