• 企业资讯

    首页 关于我们

    企业资讯

    优雅打工人ChatGPT | 究竟是打工人的曙光还是……??
    发布时间:2023/04/04
    返回列表

    随着ChatGPT、、、、GPT4、、、文心一言等大模型越来越被大家所关注。。奢女郎生物推出「优雅打工人ChatGPT」系列栏目,,,,和大家聊一聊ChatGPT的「优雅」。。。。

     

    few weeks ago

    打工人还沉浸在

    「ChatGPT解放生产力」

    「使用ChatGPT摸鱼一共几步」

    的愉悦中

     

    紧接着

    OpenAI 研究人员提交报告

    预言美国人约80%工作岗位和50%工作任务

    会受到 AI 影响

     

    仅5天后,,,,高盛又发布报告

    预测 AIGC 将使全球 3 亿工作岗位实现自动化

    打工人听后

    又开始瑟瑟发抖起来

     

     

    高盛还说

    它也会创造新就业机会

    比如年薪百万的提示工程师

    可能会在未来10年内使全球年度GDP增加7%

     

    ChatGPT究竟何德何能

    能让数亿打工人的心绪波动如此激烈

    (明明都是些被社会锤炼过的老打工人了)

    让我们来浅析一波 

     

     

    自从ChatGPT问世,,打工人和学生党便开始沉浸于与ChatGPT聊天解闷,,,询问常识问题,,,并使用“小助手”辅助写写作业等互动上。。。

    ChatGPT发布后仅4个月,,,3月15日OpenAI再投一枚重磅消息发布GPT-4。。3月16日百度也紧随其后,,发布了文言一心的内测版本。。。。

    从OpenAI官网了解到,,,,GPT-4 比 GPT-3 能够更好地理解自然语言的细节和语义,,生成准确和自然的文本。。

    此外,,GPT-4增加了多模态处理功能,,,,对图片能够准确识别和转义。。。。比如输入一张下图左侧的图片,,然后询问它:“如果拳击手套落下,,将会发生什么???”ChatGPT能够给出符合常理且正确的回答:“拳击手套将集中木板,,,而小球会飞起。。。。”

     

    更令所有竞争对手目瞪口呆的是,,,就在GPT-4发布后的第二天,,,“卷王”微软宣布正在将该技术植入到微软办公软件中,,该功能名为“Microsoft 365 Copilot”,,,,可谓是“宁可累死自己也要卷死同行”的真实写照。。。

     

    Copilot接入微软的多个商业应用程序中使用,,,包括我们打工人每天接触的Word、、、PowerPoint、、Excel等。。。。在Word中Copilot可以帮助用户扫描文档,,快速提取有用的信息,,,,节省采编、、、写作的时间;在Excel中可以帮助用户分析数据的趋势,,,在表格中突出显示关键的数据;另外它还可以在PowerPoint中根据用户需求快速生成幻灯片。。。简直可以称其为 真·智能化·全自动·办公小助手。。

     

    当国际上以大型语言模型(LLM)为主导的人工智能拉锯战进行的如火如荼时,,,,国内各大互联网企业也蓄势待发,,,,包括百度、、腾讯、、阿里巴巴、、、、快手等在内的大型科技企业,,争相预发布中国第一个ChatGPT模型,,,连李开复都公开宣布自己“参赛”。。。。

    国内企业中,,,百度的进展最为迅猛。。。在前文提到的3月16日百度发布会上,,,,李彦宏宣布正式推出大型语言模型生成式人工智能产品“文心一言”。。。。不仅能够生成高质量、、、流畅自然的中文文本,,并具备多种应用场景,,如智能客服、、、内容创作、、、、语音识别等,,,,展示了百度在大型语言模型领域的技术实力和创新能力。。。。

     

    浅析ChatGPT技术

    简单来说,,,ChatGPT是一个大模型,,,对应大数据、、强算力、、好算法。。。

     

    大数据

    ChatGPT具有“场景通用性强、、泛化能力好、、能够自主学习”等功能,,,而这一切都是以海量数据为基石,,,,算法模型通过从海量数据中获得先验知识,,,,构建知识图谱,,,,根据上下文关系从而生产出问题答案。。。。

    关于ChatGPT使用的数据,,,我们采访了ChatGPT本尊,,,它是这样回复的:

     

    Q:ChatGPT用了多少数据集,,数据从哪里来

    A:作为GPT-3.5的一种变体,,,,我使用了大量的数据集进行训练,,包括来自网络的文本语料库、、书籍、、新闻文章、、论文、、、、博客、、、维基百科等。。。。这些数据集是从公共领域和互联网上获取的。。。

    我使用的主要数据集是OpenAI的专有数据集,,包括Common Crawl、、WebText、、、、BooksCorpus和新闻文章数据集。。。。这些数据集涵盖了广泛的主题和语言风格,,,,可以让我学习各种不同的语言和文本风格。。。此外,,,我还使用了其他来源的数据集,,,例如维基百科和一些常见的开放数据集,,,,例如电影评论数据集和新闻主题数据集。。。。

    总的来说,,,我使用了数万亿个令牌(tokens)的文本数据进行训练,,,这是我能够提供广泛的语言理解和生成能力的基础。。

     

    ChatGPT相关的论文阐述其所用数据如下所示[1]:

     

    强算力

    在训练ChatGPT模型的过程中,,,需要大量的计算资源来完成。。。。据OpenAI官方信息,,,,ChatGPT模型拥有1750多亿个参数 [2]。。。为了训练这个模型,,,OpenAI使用了多台超级计算机,,,包括由超过1万枚英伟达A100 GPU芯片的AI计算集群和Azure AI超算平台等。。。。其中,,微软Azure云服务为ChatGPT提供了计算资源,,,其超级计算机拥有超过28.5万个CPU核心、、、、1万个GPU,,,并且每个GPU都有400Gbps的网络带宽 [3] ,,,,可以为ChatGPT提供大规模分布式AI模型训练所需的巨大算力。。。。

    据OpenAI发布的数据显示,,,ChatGPT总算力消耗约为3640PF-days,,,,这相当于每秒计算一千万亿次,,,需要计算3640天才能完成 [4]。。。可以看出,,ChatGPT的训练需要大量的计算资源和时间,,,,因此其训练成本非常高昂。。。。

     

    好算法

    ChatGPT是一种基于深度学习的语言模型,,它采用了一种被称为Transformer的架构。。。Transformer是一种基于自注意力机制的神经网络结构,,,,用于解决序列到序列的任务,,,例如机器翻译和自然语言处理。。相对于之前的递归神经网络和卷积神经网络,,Transformer在处理长序列时效果更好,,,能够并行化处理,,提高了计算效率。。。

    ChatGPT的核心算法是语言模型,,,,即用来预测下一个单词或字符的模型。。它的训练目标是最大化给定输入序列的条件概率,,也就是给定前面的词语,,,预测下一个词语的概率。。。。

    ChatGPT使用了一种被称为“预训练 + 微调”的训练方法。。。在预训练阶段,,模型会在大量的文本数据上进行无监督学习,,目标是学习语言中的模式和规律。。。在微调阶段,,模型会在特定的任务上进行有监督学习,,,,例如文本分类、、语言生成等,,,,以适应具体的应用场景。。。。

    在具体的算法实现上,,ChatGPT采用了多层Transformer编码器作为基本单元,,,每个编码器包含了多头自注意力机制和前向神经网络两部分。。。。自注意力机制用于处理输入序列中每个位置之间的关系,,,,前向神经网络用于对每个位置进行局部的特征提取和转换。。

    算法、、、、算力、、、数据是推动人工智能高速发展的三驾马车,,,,训练ChatGPT这种超大规模往往不属于一个人或者一个成型的商品,,需要公司日积月累以及专业的数据公司的采集、、清洗、、、整理、、、、分析和标注。。。 

     

    数据

    是训练一切大模型的基石

    如果想追赶国外的ChatGPT,,,数据积累是关键。。数据是ChatGPT之类大模型训练的基础,,,它们是大模型学习语言模式和语义理解的来源。。。。

    如果数据不够丰富或者不够准确,,大模型将无法准确的进行语言模型和语义学习,,,导致大模型的质量下降。。。。并且这些模型需要大量多样化的数据才能进行训练,,,,这些数据可以来自于不同的领域和不同的语言,,,从而提升模型的泛化能力,,,通用性和鲁棒性。。。。

    通过使用多样性的数据进行训练,,,大模型才能够更好的理解各种语言和领域的语言特征。。。。其中数据的准确性对于大模型的训练也非常重要。。

    如果数据存在错误或者噪声,,,这些错误和噪声将会被大模型所学习并产生负面影响,,,,导致模型的性能下降。。

    随着时间的推移,,,语言和语义理解的方式也会不断变化,,,,实时性对于大模型的训练来说也非常重要。。。及时更新数据可以保持线上大模型的学习和推理能力,,使其保持最新的语言和语义理解。。。。

     

    那么如何积累如此庞大规模的数据呢???

    采集互联网数据

    通过技术手段可以从互联网上收集大量的数据,,但需要注意法律和伦理问题,,,避免侵犯个人隐私或违反版权法。。。同时,,要注意采集速度和频率,,,,避免对网站造成不必要的压力或影响用户体验。。。。最后一步则是对采集数据进行处理和清洗,,删除无效或不良数据,,从中提取有效信息。。。

     

    数据合成

    数据合成指的是用生成模型AIGC的深度学习模型合成语音、、图像、、、、文本、、、多媒体视频数据,,,再用这些数据辅助通用大模型的训练。。虽然这些合成的数据不是从现实世界中采集或测量的,,,但合成数据能够从数学或统计学上反映真实数据。。

     

    数据定制

    根据企业不同的场景需求,,,,数据公司可以基于自身对于行业客户的理解及专业积累,,,,为企业提供相关咨询建议,,并为企业量身打造安全合规的专业数据。。。

    从2016年Google AlphaGo打败柯洁,,,到今天OpenAI 的ChatGPT和GPT-4 , 人工智能不断突破人类的想象,,,逐渐走入日常生活。。。。相信会有更多超越期待的产品在研发的路上,,,不断扩宽我们的认知边界,,,刷新我们的感官体验。。。

     

     

     

    文献参考

    [1] Why Does Surprisal From Larger Transformer- d Language Models Provide a Poorer Fit to Human Reading Times? https://arxiv.org/abs/2212.12131

    [2] Language Models are Few-Shot Learners, 2020, 6.3 Energy Usage, https://arxiv.org/pdf/2005.14165.pdf

    [3] Microsoft announces new supercomputer, lays out vision for future AI work,  https://news.microsoft.com/source/features/ai/openai-azure-supercomputer/

    [4] GPT-3: The Dream Machine in the Real World, https://towardsdatascience.com/gpt3-the-dream-machine-in-real-world-c99592d4842f

     

     

     

     

     

     

     

     

     

     

    分享到微信朋友圈

    打开微信,,,点击底部的"发现"

    使用“扫一扫”即可将网页分享至朋友圈。。

    站点地图