Board logo

标题: [电脑] 现在这么多AIPC笔记本,AI模型本地运算意义在哪? [打印本页]

作者: hikari34    时间: 2024-4-19 09:49     标题: 现在这么多AIPC笔记本,AI模型本地运算意义在哪?

掐它鸡皮提或者kimi这种线上的不是更好用?对笔记本来说也更省电,效果也更好。
我感觉只有涉及机密内容的工作才有必要用到这种纯本地的AI吧
作者: 爱猫咪的薛定谔    时间: 2024-4-19 10:00

posted by wap, platform: Android
免费
作者: wtdd    时间: 2024-4-19 10:53

基本都是简单影像编辑之类的,干不了什么正事,但大家都在卷,你也不能没有啊
作者: coolmenu    时间: 2024-4-19 14:33

posted by wap, platform: MAC OS X
理解为手机的微创新,现在 cpu 也升级不出啥特性了
作者: lanqiuxie    时间: 2024-4-19 14:39

图像剪辑,文字处理什么的,最终还是要输出的。比较适合所谓的移动办公吧,网络环境不是很确定。不过肯定是一个趋势性的功能了
作者: 春熙    时间: 2024-4-19 15:07

posted by wap, platform: Android
创造需求
作者: qazqaz    时间: 2024-4-19 15:18

为了噱头骗你买。

和之前的什么垃圾扭曲屏,5G等异曲同工。
作者: phonixcry    时间: 2024-4-19 16:11

posted by wap, platform: iPhone
自己调参,在线模型各种安全限制
作者: lvcha    时间: 2024-4-19 16:16

posted by wap, platform: Firefox
首先,这个跟本地用模型画妹子和用在线模型画妹子道理一样。你想画个那啥的不就得用本地的吗。
其次,你公司的文档或者代码你想用大模型去处理怎么办?不得自己公司训练一个给员工用吗?gpt又不知道你公司内部的专用语
作者: hikari34    时间: 2024-4-19 16:49

现在那些个AI笔记本里的模型能自己调参和训练了?
作者: DarthVadar    时间: 2024-4-19 17:05

posted by wap, platform: iPhone
那些aipc连本地跑模型推理都不行

营销噱头罢了
就是来搞笑的
作者: Squallgjs    时间: 2024-4-19 17:46

intel最新的U7 U9,整个本地编程助手之类离线小模型还行,SD出图的话试了512x512和1060差不多快,也能将就用用,生成个UI图标,自媒体配图之类的没问题,总之就是可以个人用,也不算噱头。
AMD的就差了,速度有点慢。
新出的本子也没因为这个功能涨价,解决了有和没有的问题。

泥潭有些人还是先了解下,不要张嘴就来,到处是测试视频,再说没人会用这种轻薄本来做训练。

[ 本帖最后由 Squallgjs 于 2024-4-19 17:49 编辑 ]
作者: DarthVadar    时间: 2024-4-19 17:58

posted by wap, platform: Chrome
就是NPU这种移动端早就玩了好几代的玩意儿,做AIGC只能说勉强,本地大模型也跑不起来
也难怪intel吹了AIPC之后,苹果马上开始说AI了
厨子想你这也叫AI,那M1就是AI了
作者: yangzhicai    时间: 2024-4-19 18:01

有限的几个场景的推理放在本地了,聊胜于无
作者: 夜游子    时间: 2024-4-19 18:18

本地部署最大好处是避免道德审查吧
作者: Squallgjs    时间: 2024-4-19 18:35

posted by wap, platform: Android
什么npu,这个只是添头而已,一直是没啥大用的东西,这次gpu性能和规模直接翻倍看不见吗?作为1.4kg的轻薄本timpspy都3600了,让游戏和本地模型都成为了可能。
苹果m1能玩个生化8都满天吹,这边核显翻倍了吹吹到变噱头了...
作者: DarthVadar    时间: 2024-4-19 19:34

posted by wap, platform: iPhone
搞了半天ai又扯到打游戏了
实际上绝大多数人最合适的就是老老实实gpt gemini copilot
本地大模型属于纯粹的鸡肋
aigc连8g m1都有傻瓜式部署的diffusionbee和draw things
过了都三四年了 突然拿个sd出图都吹上AI了
而且windows阵营明明有老黄这个更现成的解决方案
需要你intel扯淡吗

本帖最后由 DarthVadar 于 2024-4-19 19:36 通过手机版编辑
作者: 卖哥    时间: 2024-4-19 19:44

能够本地为啥要云?
作者: DarthVadar    时间: 2024-4-19 19:50

posted by wap, platform: iPhone
引用:
原帖由 @卖哥  于 2024-4-19 19:44 发表
能够本地为啥要云?
前提是你俩跑的是一个玩意儿

你现在本地的和云端的是tm一个级别的玩意儿吗
作者: Squallgjs    时间: 2024-4-19 20:52

posted by wap, platform: Android
行了,苹果天下无敌,windows轻薄核显本不配存在,不配进步,即使从无到有sd跑6秒出图也是噱头(m1好像10多秒),本人比较low,暂时只会用sd和游戏能力评估核显ai性能,其他不懂,也不用赐教了

https://b23.tv/m0ko3AC

本帖最后由 Squallgjs 于 2024-4-19 21:31 通过手机版编辑
作者: hisame    时间: 2024-4-20 09:35

posted by wap, platform: 小米 红米
简单说ai分两类,个人称为小ai和大ai
小AI就是车牌识别,轮廓识别,物体识别这种。修图修视频好用。
大AI就是大语言模型了,不是小冰小爱同学说废话,还要有一定的逻辑思维能力,有一些泛行业的基础知识。这玩意不止占cpu还占内存硬盘啊。
作者: 卖哥    时间: 2024-4-20 09:48

引用:
原帖由 DarthVadar 于 2024-4-19 19:50 发表
posted by wap, platform: iPhone
前提是你俩跑的是一个玩意儿

你现在本地的和云端的是tm一个级别的玩意儿吗
这不是更对了么
既然存在不一样量级的应用,且一类应用足够本地运行,这类应用为啥云?
作者: DarthVadar    时间: 2024-4-20 12:00

posted by wap, platform: iPhone
引用:
原帖由 @卖哥  于 2024-4-20 09:48 发表
这不是更对了么
既然存在不一样量级的应用,且一类应用足够本地运行,这类应用为啥云?
卖哥你是脑袋秀逗了?还更对了?

难道云的那一类应用是你跑的本地大模型级别的?

啥叫足够本地运行?llama70b的推理能力都赶不上gpt4,那intel营销的ai cpu哪一个能本地部署70b?
作者: hikari34    时间: 2024-4-20 12:11

大概懂了,买AIPC送一个免费小学生助理,云端是高中生助理但是通常都要加钱,看你工作需要了。
作者: 永不加赋    时间: 2024-4-20 17:51

posted by wap, platform: iPhone
引用:
原帖由 @hikari34  于 2024-4-19 09:49 发表
掐它鸡皮提或者kimi这种线上的不是更好用?对笔记本来说也更省电,效果也更好。
我感觉只有涉及机密内容的工作才有必要用到这种纯本地的AI吧
满足个性化xp?
作者: sharonsl    时间: 2024-4-20 19:54

posted by wap, platform: Android
英特尔股价跌到英伟达的零头都不剩了,再不趁着AI风口吹一波以后还怎么混?
作者: 卖哥    时间: 2024-4-20 23:51

引用:
原帖由 DarthVadar 于 2024-4-20 12:00 发表
posted by wap, platform: iPhone
卖哥你是脑袋秀逗了?还更对了?

难道云的那一类应用是你跑的本地大模型级别的?

啥叫足够本地运行?llama70b的推理能力都赶不上gpt4,那intel营销的ai cpu哪一个能本地部署7 ...
这就是对了呀。

你想否定的是本地替代云对,而我的观点是各有各用。
还是说你认为AI=跑大模型?
作者: 威尼斯睡裤    时间: 2024-4-22 14:41

posted by wap, platform: iPhone
引用:
原帖由 @DarthVadar  于 2024-4-19 19:34 发表
搞了半天ai又扯到打游戏了
实际上绝大多数人最合适的就是老老实实gpt gemini copilot
本地大模型属于纯粹的鸡肋
aigc连8g m1都有傻瓜式部署的diffusionbee和draw things
过了都三四年了 突然拿个sd出图都吹上AI了
而且windows阵营明明有老黄这个更现成的解决方案
需要你intel扯淡吗

本帖最后由 DarthVadar 于 2024419 19:36 通过手机版编辑
微软觉得需要Intel,你觉得不需要,你算老几

老黄能保证每台电脑都配一张他家的显卡嘛?不能那你说个卵子

云端大模型能像随身设备那样贴合用户需求,采集个人数据嘛?设备端普及AI明显能拓展更广的场景和应用模式。
作者: DarthVadar    时间: 2024-4-22 14:54

posted by wap, platform: Android
引用:
原帖由 @威尼斯睡裤  于 2024-4-22 14:41 发表
微软觉得需要Intel,你觉得不需要,你算老几

老黄能保证每台电脑都配一张他家的显卡嘛?不能那你说个卵子

云端大模型能像随身设备那样贴合用户需求,采集个人数据嘛?设备端普及AI明显能拓展更广的场景和应用模式。
intel需要吹牛逼
然后你觉得被忽悠很自豪
你咋不问问微软能不能每台pc配intel ultra呢

本帖最后由 DarthVadar 于 2024-4-22 14:57 通过手机版编辑
作者: DarthVadar    时间: 2024-4-22 14:56

posted by wap, platform: Android
引用:
原帖由 @卖哥  于 2024-4-20 23:51 发表
这就是对了呀。

你想否定的是本地替代云对,而我的观点是各有各用。
还是说你认为AI=跑大模型?
ai不等于大模型
但是intel吹牛逼aipc就是主要吹大模型
作者: 威尼斯睡裤    时间: 2024-4-22 15:25

posted by wap, platform: iPhone
引用:
原帖由 @DarthVadar  于 2024-4-22 14:54 发表
intel需要吹牛逼
然后你觉得被忽悠很自豪
你咋不问问微软能不能每台pc配intel ultra呢

本帖最后由 DarthVadar 于 2024422 14:57 通过手机版编辑
笑死,AMD那边早就加入了,还在盯着Intel输出。
从高通到Intel再到AMD,微软就是能保证24H2以后新出的每台PC都是AI PC,有本事以后号称AI PC的你都别买

本帖最后由 威尼斯睡裤 于 2024-4-22 15:27 通过手机版编辑
作者: hikari34    时间: 2024-4-22 16:05

高通现在也是AI手机,感觉现在AI上苹果完全落后了,起码吆喝声完全落后了,大家都觉得win和安卓和鸿蒙要按着IOS OSX打了,身边还真有人是因为AI功能去买华为的那个新手机和新电脑的
作者: xiagnice    时间: 2024-4-22 16:24

问题来了,买了个AI笔记本回来重装了个win10,那些AI功能还在么
作者: sceic    时间: 2024-4-22 16:44

我能想到的是用本地ai核心做计算节点,给完全免费的用户提供计算支撑,然后换取信用值给自己去使用云端高版本机会。
作者: odioanatre    时间: 2024-4-22 18:13

有一些工作文档和文字处理在本地处理更方便吧,也更容易训练。有些不便直接发网络的终归还是断网状态比较让人放心,当然也不见得安全就是了。




欢迎光临 TGFC Lifestyle (http://club.tgfcer.com/) Powered by Discuz! 6.0.0