智东西 作者吴菲凝 编辑李水青 智东西3月14日消息,据开发人员西蒙威利森(SimonWillison)在自己的博客中称,他成功在自己的笔记本电脑上运行了Meta的130亿参数模型LLaMA13B,这意味着大型语言模型已经可以跑在消费级硬件上了。 他还称,LLaMA13B在大多数基准测试上的表现都优于拥有1750亿个参数的大型语言模型GPT3,LLaMA65B甚至可与谷歌的Chinchilla70B和PaLM540B模型竞争。 一、Mac能运行130亿参数大模型,只需8GB空间 一名软件开发人员乔治格尔加诺夫(GeorgiGerganov)发布了一款名为llama。cpp的工具,该工具可助开发者在MacBook上运行AI大型语言模型LLaMA。 LLaMA全称为LargeLanguageModelMetaAI,即Meta大型语言模型,其参数量从70亿到650亿不等,当参数越大时,模型所占用的空间就越多,运行时所消耗的算力也就越大。llama。cpp的主要目标就是在MacBook上使用4bit量化运行大型语言模型。4bit量化是一种减小模型大小的技术,以便模型可以在功能较弱的硬件上运行,它还能减少磁盘上的模型大小:将LLaMA7B减少到4GB、LLaMA13B减少到8GB以下。 据AI开发者西蒙威利森(SimonWillison)称,去年8月时发布的文本转图像模型StableDiffusion开启了对于生成式AI的全新浪潮,ChatGPT的出现则将其推向了超速发展。如今,对于大型语言模型而言,类似于StableDiffusion的时刻再次发生了。 他称自己第一次在自己的电脑上运行了类GPT3语言模型。 阿特姆安德林科(ArtemAndreenko)在4GBRAM的RaspberryPi4上运行LLaMA7B 阿尼什泰特(AnishThite)让它在Pixel6手机上运行 威利森称,GPT3这样的语言模型为ChatGPT等工具提供技术支撑,它比图像生成模型更大,构建和运行成本也更高。 大型语言模型中大部分都是由OpenAI等私人组织构建的,并且一直受到严格控制只能通过他们的API和Web界面访问,不会发布给任何人在他们自己的电脑上运行。即使个人可以获得GPT3模型,也无法在自己的硬件上运行,因为运行模型一般需要多个英伟达A100级GPU,单个售价超8000美元。 而如今,威利森可以在自己的电脑上运行LLaMA7B模型,并将它升级到13B模型。他之前认为还需要几年时间才能在自己的硬件上运行GPT3类模型,但如今已经可以做到了。语言模型的成本已经下降到个人电子设备也可用的地步。经过4bit量化之后,模型被缩小,LLaMA甚至可以在配备M1芯片的MacBook上运行。 二、大型语言模型失去保护屏障,须合理使用 与此同时,威利森认为在现实生活场景中,人们完全有可能利用语言模型来做一些不好的事情。比如编写垃圾邮件,制造情感骗局,甚至还可能自动生成激进言论。 对生成式AI而言,编造一些虚假信息实在太容易了,并且人们也区分出来。在此之前,OpenAI还对人们与这些模型的交互行为进行有选择的防御,但当普通人都能在自己的消费级硬件上运行这些语言模型时,又该怎么办呢? 在威利森看来,如果不将大语言模型往积极的方向加以引导的话,人们很容易会在使用过程中陷入到它的陷阱中去,要么认为生成式AI有害,要么认为它浪费了自己的时间。 威利森称自己如今每天都在根据自己的目的来选择使用生成式工具。他上周用ChatGPT来教自己学习AppleScript用以编写Mac系统的运行脚本。在ChatGPT的帮助下,他不到一小时就发布了一个新项目。 威利森认为当前人们的首要任务是找出最有建设性方法来使用ChatGPT。 结语:大型语言模型限制被打破,平替ChatGPT有望实现 尽管目前在MacBook上运行LLaMA的步骤依然繁琐复杂,但威尔森已在自己的博客中给出了详尽的步骤说明(https:til。simonwillison。netllmsllama7bm2)。相信在开源社区的不断开发之下,LLaMA会变得更易上手,操作更加便捷。LLaMA在llama。cpp的帮助下,有望成为平替版ChatGPT,人们通过消费级电子产品也能自如使用大模型。