2021年,ai大模型会给人们带来哪些惊喜?

蛋白质折叠问题被认为是人类在21世纪需要解决的重要科学前沿问题之一 。理解蛋白质的结构有助于确定蛋白质的功能 , 了解各种突变的作用 。
谷歌旗下的人工智能超大模型DeepMind在2021年准确地预测了蛋白质折叠成的结构AlphaFold2 , 解决了一个延续了50年的“重大挑战” , 为更好地了解疾病和药物发现铺平道路 。
大模型悟道1.0在推出时在医疗方面的一个应用方向是癌症早筛 , 如上传乳腺癌图像 , 找到乳腺癌相关预测亚类 , 通过影像识别宫颈癌亚类等 。
而另一个超大规模AI模型GPT-3所表现出来的零样本与小样本学习能力 , 则刷新了人们的认知 。基本的生成、分类、搜索、问答应用都已经被开发成对应的API , 一个模型 , 对应解决不同用户的不同问题 。
AI超大模型正在不同的领域表现出惊人的智能水平 , 给企业带来更多的希望 。谷歌、亚马逊、微软、英伟达、智源人工智能研究院、阿里、百度、华为、浪潮等国内外科技巨头纷纷展开大模型研究和探索 。
2021年 , 预训练大模型迎来大爆发 , 引爆AI大模型研究的热潮 。那么 , 2022年 , AI大模型会给人们带来哪些惊喜呢?
012021年 , 超大规模预训练模型爆发
过去三年来 , 国外超大规模预训练模型参数指标不断创出新高 , “大模型”已成为行业巨头发力的一个方向 。
国外的超大规模预训练模型起步于2018年 , 2021年进入“军备竞赛”阶段 。
2018年 , 谷歌提出3亿参数BERT模型 , 惊艳四座 , 由此大规模预训练模型开始逐渐走进人们的视野 , 成为人工智能领域的一大焦点 。
2019年2月 , OpenAI推出了15亿参数的GPT-2 , 能够生成连贯的文本段落 , 做到初步的阅读理解、机器翻译等 。
紧接着 , 英伟达推出了83亿参数的Megatron-LM , 谷歌推出了110亿参数的T5 , 微软推出了170亿参数的图灵Turing-NLG 。
【2021年,ai大模型会给人们带来哪些惊喜?】2020年6月 , 大模型迎来了一个分水岭 , OpenAI以1750亿参数的GPT-3 , 直接将参数规模提高到千亿级别 。而作诗、聊天、生成代码等无所不能 。
之后 , 微软和英伟达在2020年10月联手发布了5300亿参数的Megatron-Turing自然语言生成模型(MT-NLG) 。
2021年1月 , 谷歌推出的SwitchTransformer模型以高达1.6万亿的参数量打破了GPT-3作为最大AI模型的统治地位 , 成为史上首个万亿级语言模型 。
2021年 , 12月 , 谷歌还提出了1.2万亿参数的通用稀疏语言模型GLaM , 在7项小样本学习领域的性能超过GPT-3 。
国内 , 超大模型研发厚积薄发 , 充分展示了中国企业的技术实力和应用需求 。
2021年是中国超大规模AI模型的爆发年 。在国内超大模型研发比国外公司晚 , 但是发展却异常的迅速 。
4月 , 华为云联合循环智能发布盘古NLP超大规模预训练语言模型 , 参数规模达1000亿;联合北京大学发布盘古α超大规模预训练模型 , 参数规模达2000亿 。
阿里达摩院发布270亿参数的中文预训练语言模型PLUG , 联合清华大学发布参数规模达到1000亿的中文多模态预训练模型M6 。
6月 , 北京智源人工智能研究院发布了超大规模智能模型“悟道2.0” , 参数达到1.75万亿 , 成为当时全球最大的预训练模型 。
7月 , 百度推出ERNIE3.0知识增强大模型 , 参数规模达到百亿 。10月 , 浪潮发布约2500亿的超大规模预训练模型“源1.0” 。
12月 , 百度推出ERNIE3.0Titan模型 , 参数规模达2600亿 。而达摩院的M6模型参数达到10万亿 , 将大模型参数直接提升了一个量级 。

2021年,ai大模型会给人们带来哪些惊喜?