---
因为ChatGPT是基于GPT一个特殊应用,因此本文我会更多的使用GPT而不是特指ChatGPT。
我浏览了原帖“****我对chatgpt的疑惑,咋感觉又是个坑呢?”(****https://www.jisilu.cn/question/id-475550__sort_key-__sort-DESC__uid-__page-2X69X),原帖的子帖,粗略过了一遍所有的回复。大致总结一下,其中95%的参与者属于以下几种情况:
- 完全不了解LLMs,不了解学术界最近几年在AI上的发展,并且在没有具体使用的情况下就大加评论的键盘党。这类人将以GPT为代表的新一代LLMs臆想为一个Google 1.1,认为ChatGPT仅仅是大数据库+高效搜索,对此我只能说你们的知识库仍然还停留在大清时代,虽然我知道很难改变一个成年人,但如果可能还是请你们更新下知识库吧,少看点营销号。
- 第二种是在没接触前基于科幻小说中对超级AI的幻想,认为ChatGPT是一个万能机器,可以迅速、完美的解决提问者提出的任何问题。他们比第一种人强的是以某种方式确实实际试用了GPT,但在接触后全能神的这种想法迅速幻灭,基于此认为GPT是一个泡沫。我们应该如何正确的看待最近的ChatGPT以及其背后支撑的LLMs(Large Language Models)?首先,我们必须要明确,ChatGPT和LLMs不是科幻小说中的上帝机器,不是所谓的全知全能神,因此,你不应该抱着上香祈愿的心态去对它提问,期望在不提供任何资料、前提的条件下,以Zero-Shot的方式指望它完美回答、解决你的问题。例如,在”用通达信预测涨停股票第二天的涨跌概率的回测”这样一个问题,我们把预测第二天涨跌概率这个部分抽出来,你给诺奖得主也得挠挠头,看看三天内能把入门部分给你讲清楚不。你用什么模型预测概率?贝叶斯?ML?通达信的使用说明是公开的吗?公开的话2021年9月以后有改变吗?实际上,在这个问题上ChatGPT能把程序给出来我就已经很吃惊了。举例来说,这样的提问方式就和我向论坛所有人提问“给出用TradeView预测涨10%股票第二天涨跌概率的回测程序“,任何一个看贴者能否在15分钟内给出一个只需要少许Debug就可以运行的Pine代码?GPT不论是3.5,还是4.0,甚至是以后的5.0,都不是神,它们都只是一种工具,一种非常强大的生产工具,但这种生产工具的强大是需要通过熟练掌握它的劳动者才能实现。
进一步说,第二种人的问题是对GPT的各方面细节并不了解,浅尝辄止之后认为它的能力仅止于此。例如:
- 现有的GPT是使用2021年9月前的公共数据训练,并且具有相当强的推理能力,但并不代表它可以进行凭空揣测。解答你所提出的问题是否需要使用使用非公开资料?或者进行推断的依据是否在2021年之后做了更新或者改变?如果确实如此,那你是否提供了足够的资料让它进行推断?
- 金融数据是比较特殊的一类数据,如果你仔细检查金融数据的License,99%的金融数据都是私人使用免费,但不能商业应用。另外ChatGPT目前(请注意目前这两个字)并没有实时接入互联网的能力,即使像New Bing这种整合了GPT的搜索引擎在回答这种可能引起商业侵权行为的问题是都是非常小心的。
- 你现在使用的GPT到底是哪个版本?3.0,3.5,3.5 Turbo,4.0? 参数中的Temperature值会对回答带来什么影响?就像我上面说过的,GPT并不是那种你上香就给你实现愿望的神仙,它是一个强大的工具,但强大的工具一定也有一个使用手册需要掌握,车这种发明了100年的东西也还需要考驾照呢。
那既然ChatGPT不是所谓的全能神,那为什么最近会如此火热呢?它又有什么价值呢?我个人认为的高概念的回答是,我们认为我们在制造全能神,或者至少说,在复制人类灵魂的道路上,迈出了坚实的一步。这个答案比较看起来比较玄幻,但我希望用这种说法引起大家的重视。比较现实的说法是,我们看到了一种大幅革新生产工具的可能性。正好原文中提到了AlphaGo,这是一个很好的比较,以GPT为代表的新一代LLMs模型和AlphaGo这一类模型相比的一大进步就是具备了泛化的能力。具体来说,AlphaGo是针对下棋这一特定任务研究的一个特定模型,它只能用来下围棋,因此,虽然它体现了新算法在某一特定任务上超越人类的优秀性,但并不具备通用性。但对于GPT来说,你可以自己设计一种棋,只要你明确将规则写出来,Feed给它,它就可以陪你下,这就是通用人工智能的概念。当然,GPT在围棋上的水平可能不如AlphaGo,但具有强大泛化能力的模型可以大幅减少模型的开发、训练成本,为下一步的应用奠定了基础。
下一步应用的一个很具体代表性的例子就是这个项目HuggingGPT。这个项目通过集成大量的其它领域的专业模型(例如类似AlphaGo的模型),使用LLM作为Controller,通过分析用户提供的命令去自动调用相应的专业模型,起到取代人类专家的作用。试想下如果能取代10%的专家工作,这个产业机会会有多大。另外,这个项目在GitHub上的Repo名叫Jarvis,我终于可以引用一个网络名梗,说一句懂的都懂了。
另外还有一个有趣的项目叫SudoLang,有兴趣的可以自行去搜索Medium上的文章。这个项目我觉得有趣的地方有几个:
- 通过人类提示,GPT 4.0自己为自己设计了一门语言以便于人类使用自然语言可以更精准有效的和它交互。这门语言的学习曲线非常平缓,非常容易上手。
- 实际试用演示的Teach function之后我的感受是老师中用于传授知识的那部分可以全部淘汰了,以后老师的作用应该是仅仅剩下人类直接互动的那部分,例如监督和陪伴。比如,我可以让GPT教我Prompt Engineering。例如,试用Teach(GPT Prompt Engineering), 在一段概括性的对话后,ChatGPT让我
另外最近还有大量类似的项目涌现,我就不一一赘述了。就我目前的感受来说,限制GPT 4.0在我们日常工作中主要是我们的想象,也就是我们还没有适应将如此强大的AI融入日常工作的工作流,而不是它的能力。这就好像在80年代的时候谈2020年时中国的汽车保有量,以我贫瘠的想象力实在是难以胜任。另外GPT 4.0的能力实在是过于强大,围绕它的发展实在是过于迅速,只能是勉强追赶这股浪潮。
下面是原帖一些值得“肯定”的地方:
- 原帖及跟楼的一些试验确实体现了GPT的一个重大弱点,那就是不知道自己的局限性,所以一些情况下它会尝试编造答案。这也是我认为GPT从来不会是神的一个原因,我们必须清楚的认识到它是一个工具,有它的局限性。
- 原帖说ChatGPT可能是个区块链、加密币式的坑,这一点是有可能的。这个说法似乎和我前面大段的描述相悖,但请注意,我这里特指了ChatGPT。实际上ChatGPT,甚至是GPT以及GPT背后的OpenAI最后可能被淘汰,但它们为LLMs的发展指明了方向,LLMs本身绝对不会被淘汰。学界现在一个很火热的方向就是用小得多的模型和少得多的训练成本在某一特定领域重现GPT的功能。Meta的LLaMA 65B模型的训练成本大概是400万美金,更别提开发成本,GPT的总体开发训练成本更是远高于此,但最新发布的羊驼系列等基于开源LLaMA的小模型训练成本基本都不超过1000美金,在特定领域的效果却和GPT相近。考虑到大多数商业机构不可能心甘情愿的将自己的商业机密交给OpenAI,以后的发展趋势说不定会是每家都有自己的小模型也说不定。
另外特别提两点:
- 看最新发布的华为盘古论文,基于里面提到的训练数据,我换算升腾910的性能不到NVIDIA A100的0.3?有懂行的人进一步分析或者驳斥下?
- 看网上有些人文章提到ChatGPT这种东西什么20XX年就出现了,没什么新奇。我建议如果任何文章看到这里就可以直接关掉,没有必要继续读下去了。这种说法就和汽车100年以前就发明了,现在的奔驰、电车没什么稀奇一样,是一种颇为脑残的论点。新一代的LLMs包含了大量的技术革新,实现这些技术革新包含了无数资源投入,不是你拿着一本20XX年的教科书之后上机实践两天就可以搞出来的。
最后,我鼓励大家积极拥抱LLMs这股浪潮,有什么好的东西欢迎分享,我也好进一步学习,同时欢迎有水平的观点跟帖一战,但我不欢迎无知的人。
最后,附上一段由GPT 4.0生成的对原贴附带例子的驳斥:
ChatGPT:
当然可以。以下是针对您最初观点的驳斥,以及一些相关的例子:
ChatGPT与其他AI助手的差异:以OpenAI的GPT-4为基础的ChatGPT,在处理问题和任务方面具有较高的灵活性和创造力。例如,GPT-4在生成文本、摘要、翻译等任务上表现优异,而这些功能在传统的AI助手中可能并不如此出色。
AI股上涨并非全无道理:以特斯拉为例,其自动驾驶系统Autopilot的发展为公司带来了显著的市值增长。特斯拉利用AI技术提升了自动驾驶的性能,进一步巩固了在电动汽车市场的地位。
AI在各行业的广泛应用:例如,在医疗领域,DeepMind的AlphaFold系统已经在蛋白质折叠预测方面取得了革命性的突破,为疾病研究和药物开发带来了巨大的潜在价值。在金融领域,AI在风险评估、欺诈检测等方面发挥着重要作用。
AlphaGo和其他AI系统的发展:在围棋领域取得突破的AlphaGo之后,DeepMind推出了更先进的AI系统,如AlphaZero。AlphaZero在围棋、国际象棋和将棋等多个领域都取得了卓越的成绩,显示了更广泛的应用前景。
人工智能的未来:近年来,AI在创作领域取得了显著进展。例如,OpenAI的DALL-E系统可以根据文字描述生成与之对应的图片,展示了AI在创意产业的巨大潜力。这些发展表明,在未来,AI可能在某些领域取得更大的突破。
通过以上例子,我们可以看到AI技术在各个领域的广泛应用和发展潜力。因此,关注AI领域的进步,并在投资时保持理性,对于把握未来发展趋势和实现长期稳定回报至关重要。
赞同来自: 风收益险 、tv236 、Jifandailu 、zengyongqiang 、七星7757 、 、 、 、更多 »
第一层级是数理逻辑,这属于发明层面,是人类理性的最高层级;任何能够被数理逻辑证伪的知识都是不可信的。
第二层级是自然规律,这属于人类知识发现层面,并经过了长期的检验和运用。
第三层级是统计拟合,就是分析事物(或信息)之间的相关性,试图得到因果性,这是目前人工智能可以驾驭的领域。深度神经网络就是一台参数自适应拟合器,用来建立信息和信息之间的连接。
第四层级是大众认知,基本上不太可靠。
人工智能如果只是停留在统计拟合这个层级,通过增加数据量和参数的方式内卷式发展,基本上就已经到头了。
下一步人工智能的发展,至少要在无引导、无监督的条件下,通过观看大量的视频、文字,并将自己置身于现实世界中,参与自然实践,去发现更多的自然规律,才有可能上升到第二层级。
无监督大家都明白,我就不多说了,重点说说无引导。
比如说:让人工智能观察大量视频,这个视频就是一些物体(如铁球、石头)从高处(如山顶、桥梁、高楼)落下,什么都不要跟它说(无引导),看它能不能总结出:S=1/2 * g * t^2这样的公式。
人工智能如果能够做到这一步,它就能达到第二层次的能力,已经是很强大的了。至于第一层级的能力,目前还没有任何的思路,还很遥远。
来来来,给你个标题自己去搜索下哈,“Efficient Monte Carlo Option Pricing using Deep Learning and TensorFlow on GPU”,有机会多参加下最近的会哈,这回就不收什么资源推荐费了。{英伟达com}/en-us/on-demand/session/gtcspring23-s51349/
要是你指的是这个的话。。。。。。把MC的每条Path结果输出出来再拿个函数拟合下这种招数不是Derivative Quant的基操?它这个就是把函数换成神经网络,真是比我想象的水的极限还更水啊。
而且以目前市面上能交易的衍生品的结构基本都可以用分段三次以下函数拟合的相当好(误差1bps)以下吧。毕竟你写出来的合同也不可能真复杂到让客户都看不懂。所以这个东西基本就可以束之高阁了,我要是一个前台QR,我用个分段函数拟合可以轻松过模型评估,我挂个神经网络又提高不了多少精度不是自己给自己找麻烦么。这基本就是什么DS Center这种Cost Center刷KPI的水文,前台要是有人看它一眼算我输。另外纠正一下,它做的是Barrier Option,不是American。Barrier天生适合MC。你要是做American虽然业界没用还算个研究(虽然课题类似研究怎么用机关枪打蚊子)。做Barrier顶多算个本科生作业。
最后补充一点,这个原理上还是和我猜的一样,拿神经网络当高阶拟合器用。和你捧上天的LLM的唯一联系就是PPT里提到TF的代码有些是ChatGPT生成的。这个反正也不好说,后期有没有人工Debug,人工Debug了多少只有作者自己清楚了。
话说你你说自己是个博士了,怎么还能这样看篇文章就兴奋?还没被水文毒打过?
亏得你是IT、自动化这些的,文章质量相对还要好点,最多就是水点,复现性还好。要是理化生的像你这样看到篇文章就觉得是有意义的,不得被骗死。
不过随着OpenAI这种大力出奇迹的研究越来越多,以后计算机类文章还能不能保持这么高的可复现性我持怀疑态度,毕竟人性相通。
赞同来自: 数据矿工
建议你还是去补点金工基础吧。“American Option的MC”?这种理论上不成立工程上迫不得已才会用的东西,还要用AI做Variance Reduction?我真不知道这种天才的脱裤子放屁的思路是咋想出来的。American只要Lattice的算力够,怎么可能有人会想用MC,一堆理论上完全无法控制精度的拟合(不管你是用线性还是AI)去拟合提前执行几率,然后还有无法预估的噪声。你哪怕真在个像样...来来来,给你个标题自己去搜索下哈,“Efficient Monte Carlo Option Pricing using Deep Learning and TensorFlow on GPU”,有机会多参加下最近的会哈,这回就不收什么资源推荐费了。
赞同来自: xiaofengmr 、量化投资先锋
最近这个星期放松了一点,但加强了读论文的强度,看了将近30篇论文,看了下最近的20楼,集中回复下。建议你还是去补点金工基础吧。“American Option的MC”?这种理论上不成立工程上迫不得已才会用的东西,还要用AI做Variance Reduction?我真不知道这种天才的脱裤子放屁的思路是咋想出来的。American只要Lattice的算力够,怎么可能有人会想用MC,一堆理论上完全无法控制精度的拟合(不管你是用线性还是AI)去拟合提前执行几率,然后还有无法预估的噪声。你哪怕真在个像样的前台呆过,也该知道这种东西没人喜欢也根本没法用。
1. 在现在这个爆炸式发展的年代,2016年的论文已经是老论文了,就别拿出来了。没有人会直接用NN来做Pricing的,人家是把DL结合到传统American Option的MC里面减少Variance,同时利用GPU的架构来提高效率,一个很不错的思路。不要拿一些业界通识出来,拿出点新的东西来。
2...
当然你也可以继续你的知识爆炸理论,相信AI明天可以推翻基础理论。
赞同来自: 好奇心135
分享一篇关于GTP的文章,一个有趣的视角。这个例子蛮好的,但如果按照这个例子的设定其实人类很容易打败大多数的AI,改规则就行了。使用RL技术的AI训练成本很高,OpenAI当年没有进一步做一个横扫一切的Dota2机器人的原因就是因为Dota2不断会有版本更新(当然也得加上Dota 2是个Dead Game的原因),目前看起来GPT 3.5都不太有希望翻过这一关。但很多新框架让训练成本大幅下降,不知道仅仅通过Fine-tuning能不能开源模型最终逼近闭源3.5的表现,期待。
昨天看了林亦上传的一个视频,关于GPT的,让我印象深刻。
视频大意是说,林亦小时候玩《街霸2》,但一直没能打败游戏结尾的高难度BOSS,以至于始终没能见到过传说中的隐藏结局,前不久,作者又机缘巧合玩了几把儿时的游戏,发现还是打不过BOSS,但因为手边有GPT,他就心血来潮,想看看AI能不能解决这个问题。
林亦和GPT商量了一下,于是GPT就开始着手写了一...
赞同来自: ericericeric 、dhhlys 、wtt156 、好奇心135
1. 在现在这个爆炸式发展的年代,2016年的论文已经是老论文了,就别拿出来了。没有人会直接用NN来做Pricing的,人家是把DL结合到传统American Option的MC里面减少Variance,同时利用GPU的架构来提高效率,一个很不错的思路。不要拿一些业界通识出来,拿出点新的东西来。
2. 最近由于追热点的原因,很多人水了很多论文,10篇里面可能只有一篇不错的文章,但剩下9篇里面都还可以提炼出一点有用的东西,所以很花时间。最近看到一个比较有意思的项目是Chameleon,在HuggingGPT的基础上更进一步,个人觉得比HuggingGPT更有在投资方面的应用潜力。
3. 我肯定会着手搞自己的模型,但目前需求还不是很明确。另外Fine-tuning的新框架也在不断涌现,WizardLM,Lamini等框架可能可以把tuning这一步的工作进一步减少到行代码级,所以可能会再等等。
4. 我一直比较关注模型性能比较,最近看的各种资料给大家简单总结下就是:GPT-3.5(更不用说GPT-4)仍然笑傲群芳,但精调之后的Open-Source LLMs可能可以接近GPT-3的水平。所以从我个人理解,OpenAI所有对手和它有一年左右的差距。
5. GPT没5可能是真的。我个人觉得4已经很强大了,现在的问题是外围的生态问题,开发5不如早日让愿意用4的人都用上4。但如果假设模型各方面没有突破性改变以及整个结构没有被逼到性能极限的话,OpenAI可能会通过利用GPT-4来开发GPT-5,进一步拉开差距。
6. 在用一些偏商业的例子继续测试GPT-4之后,我进一步被它的推理能力折服,我现在在无限期待我的GPT-4 API测试资格中。、
7. ChatPDF已经完全融入我读论文的工作流里面了,效率有明显提升,推荐。
8. 这贴子估计大家该说的都说了,已经没啥热点快沉了。我以后会偶尔上来看看大家的回复,集中回复更新下,分享些最近看到的好东西。应该会继续保持高强度的看论文一段时间,把一些欠账清一清。
9. 金融方面没看到什么很让人兴奋的关于LLMs的新东西,但Transformer相关的一些新东西可能会慢慢从NLP移到时序相关的数据上去,不知道能不能带来些好东西。另外上回听到不记得是大摩还是小摩在18个月前就和OpenAI接触展开合作了,还是比较惊讶,没想到动作的这么早。
所以最可怕的不是chatgpt本身而是大量训练后接入的扩展性,一旦这种模型不断接入新的功能不断进化,对于就业率会冲掉90%的人——更别说autogpt这种分开几个接口完成不同功能的玩法。现在唯一不足的依然是算力,突破不了硬件上限。
和以前的辅助软件或者搜索引擎最大区别是自然语言表达可以生成相关的功能,这就代表谁更好表达更容易得到需要的结果。而它的持续学习和无限加班能力,只要成本下降,未来教育的冲击会更加厉害。
工具水平不断提高。意味生产能力不断提升。
知识绝对不会因为某人个死亡。知识会消亡。
刚出生的婴儿是得从0开始学习,婴儿成人后,哪怕只有百万分之一人能创造新工具,都会带动整个人类智慧提升。能有创造力的天才肯定是极少数人。
学习能力只是继承前人知识能力,并不意味后人就要停留在前人知识水平。
进化都是以点带面突破方式进行的。
生命中所孕育许多智慧需要人类挖掘智慧。
比如利用树的向光特性,可以提高搜索算法效率。
树向光一面生长速度高于背光一面生长速度。
赞同来自: 胖樱桃1 、青火 、小徒弟 、逍遥chen 、qianfa 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、更多 »
机械鼠走动过程是随机的,走动的路径都会做个标记路径状态,通是一种状态,不通是另一种状态。如果走不通,就会返回换个路径继续试探,一种试探成功。
如果让机械鼠再走,就会沿着成功路径再走一遍。
这个模型实际就是搜索算法雏形,人就是不断瞎碰中,偶然发现成功路径,此后你不断重复成功路径走。
如果有一天发现此路不通了,说明成功路径已经改变,只能重新寻找成功的路径。
投资也和走迷宫一样,成功就坚持不变,失败就寻求变化。
赞同来自: dotte
开放式场景,拟合函数过拟合概率增大。
拟合函数实际含有未来函数,你可以预测明天,你要预测未来100年后,问题就大了。
今天和昨天不会有大的变化。今天和明天也不会有很大变化
我们和100年前人的语言差别很大,100年后人和我们的语言也会很大。
从无到有,或从零到1,一定是瞎碰,没有任何理论基础,有很大偶然性和随机性。
从1到100,到无穷,无论归纳,还是演绎,可不是瞎碰,可以建立理论基础。
现在人工智能可不是瞎碰,可以解决从有到无穷可收敛的问题。
目前无法解决从无到有的问题。
人类的天才就是把无序变为有序,这是人类特有智慧。
比如自然语言是有序的,如果是无序的,人是无法交流的。
有些问题过于复杂,人脑的计算能力,已经不足,电脑计算能力明显超过人类。
如果是无序的化,就不可能有电脑程序。
换一个角度考虑,其实如果大多数人能够觉醒,节省掉过度的内耗,依据现在的地球资源和GDP,这些都不是问题了,容易解决了,人类应该可以获得更大的发展。
所以,恐怕还是应该考虑人类文明可以生生不息的发展方向,世界大同的方向,需要的各种资源将大大降低。小模型可能就OK了。
个人理解,供参考哈
赞同来自: 一生水 、zengyongqiang
人工智能在人类规定的活动空间内,不断随机变化参数(动作),按照人的评分标准,找到最优路径,人工智能进化的结果通过训练后的数据来表达。
生物在大自然规定的活动空间内,不断随机变化基因表达(蓝图),通过基因建立肉身接受大自然的评判,留下最适宜生存的基因,生物演化的结果通过基因的物理结构来表达。
所以生物的演化更高一筹,基因的遗传过程并不传承具体的知识,而是传承能够更好学习知识的模型(可以理解为智商),进化的是模型,是授之以渔。
生产关系和社会制度决定需求端上限。蛋糕会不会浪费?
如果蛋糕只能少数人享用,生产力一定过剩,就是把蛋糕扔了,都不其他人吃。
如果蛋糕大家都能享用,需求端扩大,刺激生产力提升。
供需之间关系很难说谁依赖谁。
发达国家人口减少,老龄人口增多,人力不足,这方面需求刺激。
欠发展国家人口增多,年轻人口,人力充足,就没有这方面需求刺激。
对于资本来说,同样生产效果,人力成本低,一定选择人力,人力成本高,一定选择AI。
赞同来自: 好奇心135
分享一篇关于GTP的文章,一个有趣的视角。昨天看了林亦上传的一个视频,关于GPT的,让我印象深刻。视频大意是说,林亦小时候玩《街霸2》,但一直没能打败游戏结尾的高难度BOSS,以至于始终没能见到过传说中的隐藏结局,前不久,作者又机缘巧合玩了几把儿时的游戏,发现还是打不过BOSS,但因为手边有GPT,他就心血来潮,想看看AI能不能解决这个问题。林亦和GPT商量了一下,于是GPT就开始着手写了一个格...大同世界的点赞数量10个,还有类似这个走向的回复高点赞,
本文这个回复的点赞数量26个,还有多个老师进行了人工智能能力的演绎,
个人理解,应该是这样子一个思路,大同世界应该是95%人类希望的发展方向,
但是同时或者大多数人也意识到,实现过程中会遇到人工智能能力过大的问题,网络上有多个程序员更是推演到,一个小需求,造成全部宇宙资源都不够人工智能用的,
换一个角度,也是楼主一直在说的人工智能极限能力问题,
也是个人讨论的,选择高自由度的人工智能小镇模型,还是限定文明走向的赤壁赋模型,
到了大家觉醒,选择的时候了,人类文明怎么走向。
赞同来自: 朝阳南街
1.只要能够将游戏里的每个场景参数化,只要有足够的对局次数,AI一定可以通过拟合找出最优解。当然有差别:第一种情况是人告诉AI要打游戏,并将游戏场景参数化,AI自己不需要具备打游戏的意识,它甚至不知道自己在打游戏,它只是通过大量参与找到价值函数最大值(对方失血最多,我方失血最少)时各种参数的最优解;第二种情况,AI看到小孩打游戏,自己也要萌发出打游戏的意识,并且需要自己建立游戏的场景参数化模型。如果没有这种参与意识,在它看来小孩打游戏、风吹落树叶、动物追逐猎物的视频就是没有区别的,又怎么可能参与到游戏之中?
2.AI反复观看一个小孩打游戏的视频,然后自己就学会了打游戏.
以上两种情景有什么本质区别吗?最终AI还是会打游戏了。
只是他们的成长过程不同。小孩到一定年龄就学会了。AI需要耗费大量资源。
小孩打游戏是为了获得快乐。不知道AI是为了啥?是为了让比尔盖茨获得快乐?
赞同来自: Lee97 、virture 、hantang001 、江城车贩子 、wisp 、 、 、 、 、 、 、 、 、 、 、 、更多 »
我看大家都太悲观了,就算人工智替代了99%的人类工作,这99%人的命运就会很惨吗? 如果这99%的人没有工作没收入,没有消费,人工智能强大的生产力意义何在?难道就是为剩下1%的人寻找优越感?到时会不会出现,人工智能拼命讨好这些躺平的废人,给吃给喝给娱乐,还养老送终呢?现在人类衡量个人价值的标准是金钱地位权力,到那个时候会不会是谁玩得最开心就被认为是最成功的人?毕竟从工业革命,到电气革命,再到信...历史上每一次技术革命带来的都是生活质量的提高。工业革命解放了体力劳动,AI革命解放的可能就是脑力劳动。
就算大量的科技岗位被AI取代了,生产力又不会下降,最后无非是保底失业福利提高了,每天8小时工作制改为4小时工作制了,五天工作制改为三天工作制了,诸如此类。
赞同来自: 夜慕光临Alex 、好奇心135 、ahelloa
分享一篇关于GTP的文章,一个有趣的视角。=============================
昨天看了林亦上传的一个视频,关于GPT的,让我印象深刻。
视频大意是说,林亦小时候玩《街霸2》,但一直没能打败游戏结尾的高难度BOSS,以至于始终没能见到过传说中的隐藏结局,前不久,作者又机缘巧合玩了几把儿时的游戏,发现还是打不过BOSS,但因为手边有GPT,他就心血来潮,想看看AI能不能解决这个问题。
林亦和GPT商量了一下,于是GPT就开始着手写了一...
这个游戏AI其实也不算难,人在里面还是发挥了很大的作用:
1、首先要让AI接入游戏视频图像;
2、要告诉它,在游戏画面中,我是谁?对手是谁。
3、要告诉它,我能做什么动作(移动身体、上跳、下蹲、各种出拳、使用绝招),以及如何触发这些动作;
4、胜负标准:观察双方血液进度条。
然后就让AI大量参与游戏对局,AI在这个过程中只做一件事:
统计哪种场景(包括双方所在位置、双方当前动作等参数)发起哪个动作能让对手的进度条快速减少,或避免自己的进度条减少。
通过海量的历史对局,可以拟合这些参数,得到最优解。
======================
1、刚开始的时候,应对对手的动作可能是随机的。
比如对手冲过来的时候,AI并不知道跳起来躲避,可能还会自己迎上去挨打;对手扫下盘时,不知道蹲下来防守,还一个劲的站着出拳,这个阶段肯定是很弱鸡的。
2、通过无数次的对局,AI发现对方冲过来的时候,跳起来就可以避免损失;然后又发现,将身体移动到最左边,对手充分靠近自己的时候,过肩摔能让对手损失巨大....
总之,只要能够将游戏里的每个场景参数化,只要有足够的对局次数,AI一定可以通过拟合找出最优解。
====================
总体来说,这些原理还是在我的理解范围之内。
我在设想另外一个场景,如果AI反复观看一个小孩打游戏的视频,然后自己就学会了打游戏.....那就真的很恐怖了。
AI在不断升级学习能力,游戏能力肯定会提高。
如果游戏规则改变,你只能不断跟随。
人类语言是不断进化中。
试想一下,GPT只学习古人语言,能否理解现代人语言嘛?现代人又如何理解未来人语言?
现代人理解古人语言,是现代语义网络,去解析古人语义网络。
古人就没有现代人语义网络,仅仅凭借古人语义网络理解现代人语义网络,会有很多问题。
我们面对未来人会有同样问题。
我们要理解封闭环境下系统和开放式环境下系统是两回事。
赞同来自: 不是阿斗 、心系湖湘 、观致 、WiensLHD 、leavening 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、更多 »
昨天看了林亦上传的一个视频,关于GPT的,让我印象深刻。
视频大意是说,林亦小时候玩《街霸2》,但一直没能打败游戏结尾的高难度BOSS,以至于始终没能见到过传说中的隐藏结局,前不久,作者又机缘巧合玩了几把儿时的游戏,发现还是打不过BOSS,但因为手边有GPT,他就心血来潮,想看看AI能不能解决这个问题。
林亦和GPT商量了一下,于是GPT就开始着手写了一个格斗游戏AI,替林亦打游戏,刚开始也玩的一塌糊涂,但随着训练的深入,GPT写出的AI表现越来越好,后来,训练似乎因为过拟合的问题走进了死胡同,但林亦找了一些AI训练的学术论文,GPT将其翻译成汉语并进行了通俗易懂的解释后,他们一起发现了问题所在,改进了训练方式。
我印象深刻的一幕是,GPT当时并行开了12个屏幕的游戏,每个屏幕都以7倍的速度对战,这意味着AI在以近百倍的速度学习反馈,最后,GPT写出的AI终于功力大成,把原游戏里近乎无解的最终BOSS打趴在地,特别值得一提的是,林亦发现,这个BOSS之所以难打,是因为它在作弊,关节时刻违反操作限制连续发必杀技,但这些都被AI以远超人类反应速度极限的操作化解了。
看完这个视频,我就陷入了沉默,在未来我们或许会过这样的生活,那就是你若遇到了什么麻烦,就去求助AI,AI能搞定的就直接帮你解决,它搞不定的,就花点时间把自己训练成这个领域里的一代宗师,然后再帮你解决。
昨夜,我做了一个梦,梦见我正在体育馆里和师兄弟们练柔道,这时,走进来一个机器人,坐在道场的角落里静静地看,我们感到奇怪,但也没说什么,等训练完了,我就走过去问:“你在这干什么?”
机器人:“路过,顺便学习柔道。”
众人一阵哄笑,我扣着自己的黑带:“那你学的怎么样了?”
机器人:“我在国际柔道协会的网站上学习了规则,又观看了自1912年以来所有的柔道教学和比赛视频,还有全网所有人类在各种情境下摔倒的视频,遍历了人类身体结构在地球重力加速度下所有可能摔倒的方式,刚刚我又从你们的训练中采集了一些物理参数,至此,我已经理解了柔道。”
我:“理解柔道?什么意思?”
机器人:“按照人类对柔道段位的认定,我用一到六段的水平做了一个柔道水平曲线……”
我打断:“所以你现在水平有多高?十段?”
机器人:“在你们训练结束时,我已达到了约300万段。”
我冒冷汗:“根本没有300万段!最高就只到十段,还是荣誉段位。”
机器人:“那是对你们人类而言。”
我:“你现在真有300万段?!”
机器人:“我是说你们训练结束时我有300万段,现在我已经有409万段了。”
我摊手:“409万段的柔道水平是什么概念?”
机器人:“你这个站姿下的重心配置,有7719种方式摔倒。”
我紧了紧黑带,摆开架势:“你有本事随便摔我一种!不按柔道规则也行!”
机器人起身,走到我身边横跨一步,我猛地侧身防守,没想到它一个急停后转步,伸手“啪”地打了一个响指,我本来就紧张,被它那个急停转步带偏了重心,注意力又被响指干扰,脚下拌蒜,直接摔了一个马趴,整个过程机器人根本都没接触到我。
机器人:“请别介意,按照国际柔道协会的规则,这一下不算您输。”
我面红耳赤地站起来,张了张嘴但说不出话。
机器人转头看向窗外的网球场,几秒后,它说:“我理解网球了。” 说罢,转身离去。
体育馆内,十几个黑带面面相觑,沉默不语,自那之后,再也没人来训练过,大家心里都清楚,人类的柔道已经没意义了。
我惊醒后,躺在床上心脏狂跳了半天,稍微平复了一会,我拿起手机又看了一遍GPT痛打《街霸2》作弊BOSS的视频,忍不住心想,也许,全人类都在不可逆地走入我昨夜的梦境。
https://weibo.com/tv/show/1034:4890912753647738%23:~:text%3D%25E6%25A0%25BC%25E6%2596%2597%25E4%25B9%258B%25E7%258E%258B ... %2587%25E6%25AC%25A1
赞同来自: WiensLHD 、owen11 、jjmdh 、wtt156 、djc354133更多 »
传统实体店倒闭了很多,电商崛起,骑手数量需求大增。
美团2022年共有624万骑手通过美团获得收入,2021年这一数字为527万,一年净增97万。
在人工智能时代。
还会有新的工作岗位产生。
未来工作不再有996,工作时长缩短,节假日增多,退休时间也会缩短。
让大家减少工作,回归家庭,增加娱乐休闲时间,有什么不好的。
设想一下,古人技能水平远远低于现代人,如果古人活到现在,也说废人一个,问题古人活不到现在。人工智能时代,也不是一天完成,至于未来人能干什么?怎么分配收入?是未来人事情。未来人还会进化,看今天我们如同看古人一样。
赞同来自: qianyun6
AI的数据也要分公有数据和私有数据。
AI算法有开源的和闭源的。
任何系统都存在认证和权限问题,任何数据使用都需要界限。
OpenAI 原来是开源的,现在闭源的。
开源的是可以做解剖分析,会有很多第三方评价。
现在任何外界评价都只能做功能性评价,或者简单评估。
比如智慧养猪,更需要过程控制,算法可以是开源的。
控制过程的脚本编写由养猪场自己完成,脚本编写语言也不需要自然语言, 可以采取专用语言编写,这样效率更高,差错率低,系统是封闭的独立的自动控制系统,保密性好数据,数据也不会外泄。
只要AI软硬件投资低于人工成本,这样AI技术未必最好的,但有很大现实意义。
技术如果脱离现实是没有意义的。
现在实体需要互联网加,未来实体需要的是人工智能加。
未来中国老龄化是一个大趋势,人力紧缺,需要人工智能进行人力替代。
减员增效是一个衡量标准。
有现成的AI为啥还要找个码农,你不知道大部分公司根本没有码农吗?这次放假找码农爬一个,下一次做一个羽毛球对阵图再找码农去爬一个?再下一次,给公司活动准备一些宣传语......你的反驳偏了吧。没人说AI不是好工具,反对应用它。
AI如果能帮忙更快的完成工作,3个人的工作,如果借助AI可以一个人完成,为啥要3个人去干?
画LOGO不管算谁的KPI,只要AI能帮忙节省时间,就是好工具。
至于云计算,你们每个文件都时时加密吗?就算每个文件都时时加密,而且...
我们只是说那种传说中的,啥都能干能替代大多数人的AI不太可能由一家公司掌控,像openai这种公司的模型也不可能触及到任何公司的核心业务,因为训练数据就不可能覆盖得到。至于各个公司会不会自己搞自己的模型替代掉一部分人,这个目前不好说。
像你举得那种工作,误差个百分之十几二十,甚至有没有都无所谓的,用AI替代了没啥不好啊。应该也没啥人愿意干吧。它不是算谁的KPI的问题,它是根本就不算在KPI里面。
我没说解决了,而是现在大多数问题已经被讨论过了,已经有答案和结论,所以要么提出新问题,不要老纠结在老问题上,要么动手实践之后给一些中性结论的问题以致命一击。首先针对评价啥的,我对你对我的评价真的毫不在乎。从你的发言能看得出来,你自诩“积极拥抱新事物的人”,并且对“新事物”拥有一种宗教徒般的狂热,看不起一切指出其局限性的人。你很多针对我们指出的问题的“反驳”不是说这个问题应该怎么解决,或者有什么路线解决。而是“新事物总是有问题的”,“问题总是会解决的”,“某某权威已经注意到了问题”。说句老实话这些东西真在学术圈混过的都知道信你个鬼。至于所谓openai CEO提出来的就可信了?我举得可控核聚变的例子里面很多展望,国内的都是院士,甚至两弹一星元勋的弟子的文章里提的;国际上也有诺奖得主,还不是从90年代开始永远离应用50年。为了经费么,不寒掺。奉劝你不要动不动把你的评价挂在嘴边,这是讨论技术问题,你对我评价的高低既不能解决问题,也不能让你的观点变得比我可信,更不能对我有任何影响。
这种极化问题的发言方式容我直说一句,是略显愚蠢的,不要沾了现在中文互联网讨论的一些坏习惯,让我看低你的水平,调低对你的评价。
另外,展望这种事得看是谁,如果是一个nobody,我只能归到“水”那边,但是如果是OpenAI CEO,一篇高引论文...
此外,你要稍微了解点科技史,也能知道90%以上的革命性科技成果都是当时的nobody提出来的。一句话有没有道理不是由它从nobody嘴里说出来和从openAICEO嘴里说出来决定的。
其次针对技术问题的讨论,简单说几点:
第一,还是我说的,“已经被讨论过了,已经有答案和结论”不代表这个问题最终能得到解决。而且这不是一个纯粹的技术问题,而是涉及到了政治,国际关系,法律,伦理等很多问题,OpenAI甚至微软在数据主权这个问题上,并没有什么权威性。除非真能做到“零知识训练”,或者靠AI大军实现统治世界。如果是十年前我可能还会乐观一点,但现在的国际环境并不是一个合作的时代。
第二,关于高盛说它积极拥抱GPT,这种片汤话谁都会说。它也肯定会用GPT技术,但一定是在它自己的服务器上,微调开源模型来实现,绝不可能给OpenAI这种第三方公司做(技术合作可能会有)。应用上会局限在文书工作,十年之内不太可能能指导到投资交易业务。
第三,关于DL做期权定价,本质是用神经网络做高阶拟合。足够规模的神经网络能拟合任意连续函数,这个是已经从数学上证明了的。算是借用了AI的技术,但从原理到目标和AI本身关系并不太大。2016年有篇流体力学的文章就是用NN拟合流体方程的(LING, J., KURZAWSKI, A. & TEMPLETON, J. 2016 Reynolds averaged turbulence modelling using
deep neural networks with embedded invariance. J. Fluid Mech 807, 155–166)。
第四,关于云计算,云计算引入的格外风险无非就是数据泄露,这是目前人能理解和控制的。你租用一个云主机云存储,你的数据都是你自己上传上去的。就算你不信任云服务提供商,你大可以把数据加密后再传上去,你自己也可以决定哪部分加密哪部分不加密以获得效率和安全性的平衡。AI的问题是到目前为止它内部还是一个黑箱,如果你要把你自己的内部数据提交上去,怎么设计算法既让数据脱敏,又让AI能用它训练?这一点我觉得至少要先弄清楚AI内部怎么工作的。
另外,我提花街银行不是说我有啥牛B的过往经历,实话都是打工人谁又能比谁更高贵呢。只是为了证明数据安全的重要性以及大公司会有多重视。
最最后,我觉得如果真心拥抱新技术也有时间的,可以考虑@yuanfeng的建议,去hugging face上找合适的模型自己微调成适应自己的模样,如果有谁有经验了可以分享下。拿闭源的openAI的API key靠穷举法实验终究是画地为牢+盲人摸象,没啥意思。
赞同来自: jjmdh
如果就是写通知,那不需要AI,一个初级码农会写爬虫爬下能给你做一个全自动的放假通知器。我相信也几乎不会有公司有专岗负责写这种东西。至于给部门球队画Logo,这不是随便上网找张图的事情么?这种真·浪费人生工作给AI做了不好么?给部门球队画LOGO这种工作在你的KPI上么?有现成的AI为啥还要找个码农,你不知道大部分公司根本没有码农吗?这次放假找码农爬一个,下一次做一个羽毛球对阵图再找码农去爬一个?再下一次,给公司活动准备一些宣传语......
什么地方真正需要AI,那就是需要AI能总结公司已有资料真正能帮到公司核心业务的。这部分一定会是用公司自己训练的模型,可能是在开源...
AI如果能帮忙更快的完成工作,3个人的工作,如果借助AI可以一个人完成,为啥要3个人去干?
画LOGO不管算谁的KPI,只要AI能帮忙节省时间,就是好工具。
至于云计算,你们每个文件都时时加密吗?就算每个文件都时时加密,而且加密算法很牛逼,谁都打不开,难道自己也不打开看吗?就算从不会有人打开看,总有程序要读它的内容吧?就算华尔街公司很牛叉,每个应用程序都是自己开发,总是要运行在某个操作系统上吧?就算华尔街公司牛叉极了,这些都做到了,而且做得完美无瑕,操作系统都是自己搞的,世界上的其他其他公司呢?他们在用云计算时都能做到这些?世界很大,也很多样,华尔街对于这个世界,就像游泳池里的一滴水。对信息安全有特别要求很高的公司不去租用商用的云计算,租用商用云计算的说不上对信息安全要求有多高。
让它写个五一放假通知,让它做个五一值班排班表,难道当心他们知道公司五一放假还是怕它有人在值班吗?让AI给部门球队画个logo,怕AI知道公司里有人在踢球吗?稍微想想,很多应用。如果某些信息敏感,可以不放上去啊。如果就是写通知,那不需要AI,一个初级码农会写爬虫爬下能给你做一个全自动的放假通知器。我相信也几乎不会有公司有专岗负责写这种东西。至于给部门球队画Logo,这不是随便上网找张图的事情么?这种真·浪费人生工作给AI做了不好么?给部门球队画LOGO这种工作在你的KPI上么?
花街的数据很敏感,不敢用谷歌翻译,那你有没有反过来想想,为什么还有那么多人在用谷歌翻译?还有,比这泄露数据风险更大的云计算都有无数公司在用,为什么?他们把自己公司的办公环境交给阿里、亚马逊...
什么地方真正需要AI,那就是需要AI能总结公司已有资料真正能帮到公司核心业务的。这部分一定会是用公司自己训练的模型,可能是在开源的模型上自己训练的。
至于云计算,你是真看不出来两者的区别么?你上云的数据都不加密的么?全明文?
典型的学术界思维,问题只要“讨论”了“覆盖”了就等于解决了。除了为了继续水论文有谁会去信那些论文后面的讨论和展望。按论文的讨论和展望,可控核聚变90年代就实现了。我没说解决了,而是现在大多数问题已经被讨论过了,已经有答案和结论,所以要么提出新问题,不要老纠结在老问题上,要么动手实践之后给一些中性结论的问题以致命一击。
这种极化问题的发言方式容我直说一句,是略显愚蠢的,不要沾了现在中文互联网讨论的一些坏习惯,让我看低你的水平,调低对你的评价。
另外,展望这种事得看是谁,如果是一个nobody,我只能归到“水”那边,但是如果是OpenAI CEO,一篇高引论文,一个我认可的人推荐的方向,我一定会认真研究。
银行业的话只要是混过都知道不代表任何先进的方向,头部的几家可能还好点,后面的在新技术方面就很平庸了。银行保险受限于自身性质,在科技应用上都是偏保守的。每个银行都有自己的内控、风控和合规标准,你说你们有自建的翻译系统,前几天我就看到高盛已经开始积极拥抱GPT技术了,前段时间看大摩分享期权定价也已经把DL引进去辅助了。对此,我只能说,今非昔比了,十年前和现在已经是两个世界了。君不见上云之前大家还不是一样的说法,但云计算御三家的股票涨了多少?云计算相关业务又占比如何?另外就是因为银行这种自己开发翻译系统的老古板的左派,我才发誓今生不要回银行,真是个闷死人的地方。难道真就没有个技术方案科技解决数据问题?我完全不信。
最后还是要牢骚一句:集思录又不是B站那种菜鸟聚集地,谁没有点独特经历。展示过去,只能让人感觉暮气沉沉,不如多想点法子搞点狠活,展示下自己的知识圈。
1、这个世界大同有啥关系?2、现在不是很多人开始在使用AI了吗,用AI起草个文件,做个表,画个图,这是现实,不是做梦。为什么需要把公司内部数据提交给OpenAI?下面是个人理解,供参考哈。
还是先摘抄个人文章(文明之光)开头写的一个说明,因为种种原因,对文中涉及的人事物等相关内容,无亵渎不敬之意。
因为人工智能的能力,已经让现在很多人认识到了,可能会大面积失业,本帖子中也有多个老师说明了相关的信息,这些容易让人焦虑,沮丧,其实应该不必如此,有很多的解决方法,换一个角度,人类更有可能从此文明大发展。
一,其实这个现象在多年前就有大量专家学者进行了推演,比如热门书籍,未来简史一书,作者是国外大学教授,据网络传说是世界政府的人,从多宗教,多哲学,多领域科学,对人工智能的发展进行了很详细的推演,推演出来了大多数人会成为无用阶级,解决方法不详,这将人工智能与人类文明的关系详细说明清楚了
二,很多阴谋论,大量影视,网络上都有介绍,意思是有大型机构组织在推动95%甚至99%人类会消失的相关计划,持续进行中,其中2016年的影片x档案中的阴谋论(疫情),已经活生生的在我们眼前才上演过,各种影视中的阴谋论,也是眼看着不断现实起来了,95%无用阶级的事情也已经具象化了,不只是概念了,大家应该都是在这个范围内的,
三,还有很多的专家学者也是提出很多好的解决方法,其中大同思想比较妥善,与各大宗教哲学科学都有较多的汇通,交集,网络上有很多资料,
这样子,我们或者后代面临二个可能的人类文明路径,一个是95%的人类消亡,甚至文明消亡,一个是人类大同,大家怎么选择呢,到了大家觉醒的时候了
包括上面各方思想,个人文章对更大范围的宗教哲学科学进行了汇集,汇通,
因为人类行为的交互式仿真模型,有过高的自由度,根据文明发展历史等,对于人类文明过于危险,失控可能极大,
因此个人推荐大家学习朱院长赤壁赋的模型,这个更容易符合道家生生不息,人类命运共同体等等理念。
个人理解,供参考哈。
你起草文件,做表画图都不用公司内部数据,自娱自乐么?想象下Google的员工直接用Office Pilot写Google搜索的技术报告,不怕第二天就出现在Bing负责人的电脑里面?让它写个五一放假通知,让它做个五一值班排班表,难道当心他们知道公司五一放假还是怕它有人在值班吗?让AI给部门球队画个logo,怕AI知道公司里有人在踢球吗?稍微想想,很多应用。如果某些信息敏感,可以不放上去啊。
我之前在花街银行工作的时候,公司连Google翻译都是屏蔽的,自己做了一套内部翻译网站用。因为国际投行经常会和一些非英语国家打交道,之前人看不懂小语种直接把合同整段原文贴到过Google翻译上。
我发现你就像没参加过工...
花街的数据很敏感,不敢用谷歌翻译,那你有没有反过来想想,为什么还有那么多人在用谷歌翻译?还有,比这泄露数据风险更大的云计算都有无数公司在用,为什么?他们把自己公司的办公环境交给阿里、亚马逊都不担心,还担心用一下Ai吗?
关于我,你又猜错,我不但工作了,而且工作了很多年了,服务的公司对信息安全要求也很高,不但对外,内部部门之间的数据也层层隔离,最严的时候连手机都不让带进办公室那种。
1、这个世界大同有啥关系?你起草文件,做表画图都不用公司内部数据,自娱自乐么?想象下Google的员工直接用Office Pilot写Google搜索的技术报告,不怕第二天就出现在Bing负责人的电脑里面?
2、现在不是很多人开始在使用AI了吗,用AI起草个文件,做个表,画个图,这是现实,不是做梦。为什么需要把公司内部数据提交给OpenAI?
我之前在花街银行工作的时候,公司连Google翻译都是屏蔽的,自己做了一套内部翻译网站用。因为国际投行经常会和一些非英语国家打交道,之前人看不懂小语种直接把合同整段原文贴到过Google翻译上。
我发现你就像没参加过工作似的,你是学生还是水论文的?我估计就这两类人能完全没有一点数据安全意识。
数据安全引担忧,欧洲多国监管机构对ChatGPT出手!Please refer to the paper "Sparks of Artificial General Intelligence: Early experiments with GPT-4". All your concerns have been discussed or covered in the paper.
https://news.dahe.cn/2023/04-15/1220616.html
意大利个人数据保护局已于3月31日宣布,暂时禁止使用人工智能软件ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。
西班牙数据保护局(AEPD)也于当地时间13日称,将对ChatGPT的潜在数据泄露问题展开初...
https://news.dahe.cn/2023/04-15/1220616.html
意大利个人数据保护局已于3月31日宣布,暂时禁止使用人工智能软件ChatGPT,限制其开发公司OpenAI处理意大利用户信息,并开始立案调查。
西班牙数据保护局(AEPD)也于当地时间13日称,将对ChatGPT的潜在数据泄露问题展开初步调查。
法国监管机构CNIL在收到了五起有关ChatGPT的投诉后,也宣布启动正式程序对ChatGPT展开调查。
德国数据保护专员也表示,将大概率效仿意大利的做法。但据“今日俄罗斯”报道,德国目前尚未采取相关行动。
美国联邦政府多家机构和硅谷技术企业都在商讨如何妥善加以监管,在鼓励技术创新的同时保护公众利益。
美国参议院多数党领袖、民主党人查克·舒默表示,随着ChatGPT等程序的广泛使用,他已开始建立人工智能(AI)监管规则。确保美国在这项变革性技术方面取得进步,并处于领先地位。
OpenAI的早期版本就发生过隐私泄密和种族歧视言论问题。
AI竞争不单纯是技术竞争问题,会涉及政治、军事、法律、道德伦理等多方面问题。
有些话不便说。
如果AI只用于企业,企业审查通过,做好数据保护,不会有太大问题。
比如自动生成图和表,并不是只有OpenAI才能做到。人机交互未必一定要采取自然语言。
AI用于个人,特别是青少年,会有非常多的问题。
美国人也会封禁微信和抖音,也会强力打压华为。
不要封禁没有用,中国人有几个脸书和推特的,中国人几乎都是微信。
中国和美国双方都会自觉不自觉树立信息高墙。
赞同来自: fydydhorse
赞同来自: 壹壹壹
至于个人用户,除了技术以外,存在很多需要解决问题。把你的几个问题综合提出来回复下。
中国AI应用更多是服务于政府和企业,检验标准是否起到减员增效效果。
数据采集是封闭的,不会外泄,安全性可以保障。
应用场景封闭,简单。
人机交互未必一定要采用自然语言。可以采用特定专业语言实现人机交互。
算力并非越强越好,数据不是越多越好。
ChatGPT的总算力消耗约为3640PF-days,并不是所有企业都能承担的。
算力增长,数据采集增大,...
首先,OpenAI并不是最近才强大的。OpenAI出圈是最近几个月的事情,实际上在学界它一直就很厉害,我很久以前就注意它了。注意它是因为它以前就是RL上的领先者,它很早就搞了一个RL的通用框架,好几年前就用了训练了个AI打Dota,那时候它的成果就很Amazing了。只不过当时同期有DeepMind的AlphaGo,把它的风头全部压过去了。后来DeepMind搞的蛋白质结构预测的东西更是大火,应该是上了年度十大。话说回来,DeepMind和OpenAI还真的有点像瑜亮之争啊。各个成果背后肯定有很多公关,这毫无疑问,但学术圈的KPI和普通人不一样,关注和感兴趣的东西不会是纯粹的公关结果。就比如说区块链这个概念,在学术圈也火过一阵,但绝对说不上这次像GPT这样大火。不过这也可能是我的错觉,欢迎戳破。
算力绝对是越大越好,这已经毫无疑问了,但如何盈利确实是个问题。
数据这个问题其实学界早就意识到了,这才是为什么这回GPT会震动整个学界,也就是我前面反复提到的泛化和涌现问题。只需要在公有数据集上训练,在自己的私有数据上就可以表现出同等能力,所以关键是如何收集标注公有数据。这就是为什么很多人最近说中文互联网已死的原因,因为中文公有数据质量太差。
另外,一方面不断有"小“模型发布和周边工具开源,训练使用成本下降,另一方面就像云计算一样,谁知道未来的算力资源会是怎么分布和提供的呢?我对此持非常乐观的看法。
1. 文章来自KAUST,著名的中东土豪大学。
2. 第一作者中国人,文中就给了个股票交易的例子,果然有国人的地方就有投机啊。
3. 文章用GPT-3.5 Turbo,效果也不错。
4. 文章思路很有趣,框架内置了几十个专业角色,对于给你的任务,通过一个AI扮演的用户和一个AI扮演的专家互相对话,最后完成任务。
5. 文章展示的例子就是一个Python Programmer(专家)如何帮助一个股票交易者(用户)编一个机器交易人的例子。
6. 试用了一下,感觉不错,GPT-3.5 Turbo经过有效调教之后能力比想象的强。
@数据矿工1、chatGPT用了那多算力,是因为他现在给全几亿用户提供服务。
给全世界提供服务,就得全球收集数据。
并不是你想收集数据就能收集数据。
各国在立法有关数据主权问题。
加之AI闭源的,逻辑链条不清,无法监控。
如果都开放的化,意味以后信息全部由美国掌握。
很多人就没有信息主权概念。
OpenAI如果不能收集更多数据,又怎么为全世界服务?
2、中国到时候也可能会出现几个巨头提供这方面的服务,就像阿里云、腾讯云提供云计算服务一样,提供AI服务,不需要很多公司提供这种相对通用的服务。
3、也可能会有部分公司训练自己行业相关或者公司业务相关AI,那些数据和用户量都会小很多,对算力的要求也会低很多。
赞同来自: ergouzizzz 、量化投资先锋
绝大部分企业不需要去搞这么大的算力来部署人工智能,直接用就行了。ChatGPT搞这么大的算力,是在给全世界提供服务。这个想法在大同世界很好,然而现实世界越来越趋向大争之世。
另,大多数企业内部数据是要保密的,模型不本地化训练部署合规根本就过不了。想提交给OpenAI?做梦吧。尤其是open AI现在已经变成微软闭源的盈利公司。
赞同来自: 好奇心135
中国AI应用更多是服务于政府和企业,检验标准是否起到减员增效效果。
数据采集是封闭的,不会外泄,安全性可以保障。
应用场景封闭,简单。
人机交互未必一定要采用自然语言。可以采用特定专业语言实现人机交互。
算力并非越强越好,数据不是越多越好。
ChatGPT的总算力消耗约为3640PF-days,并不是所有企业都能承担的。
算力增长,数据采集增大,未必能同步增效。
OpenAI做为ChatGPT的开发者,原本是做开源设计的,是非盈利实体,曾经得到马斯克的资助,因利益权力的争夺,马斯克离开后,断供OpenAI,一度OpenAI无力支付在超级计算机上训练人工智能模型所需的高昂费用。
OpenAI又改为盈利实体,6个月后得到微软投资,仅仅凭借OpenAI,不可能掀起多大风潮,有没有微软在背后操作,很难说的清楚。
2月17日,马斯克在推特上写道:“OpenAI是作为一个开源(这就是我为什么把它命名为‘开放’AI)的非营利公司创建的,旨在与谷歌抗衡,但现在它已经成为一个由微软实际上控制的闭源、利润最大化公司。这根本不是我想要的。”
去年12月,在ChatGPT推出一个月后,马斯克撤销了OpenAI对推特数据源的访问权限。
赞同来自: Decadef20 、难得又是浮雲 、jjmdh
楼主不必和大家太过较真,真理永远掌握在少数人手里,大部分人傲慢偏见很正常的。这个回复值得提出来说一下。
我是电子信息领域国内TOP2的Prof.,自从chatGPT出来以后,我参加的每场学术会议,都有院士专门围绕chatGPT做专题报告,我逐渐意识到这次可能真的不同。随后花了大量时间研究了一下,越研究越兴奋,到最后有些沮丧。以chatGPT为代表的自然语言AI模型已经发生了质的变化,未来我们很有可能迎来诸如发明蒸汽机、发明...
首先,我肯定不会较真。纵横微信群多年之后,我只能说集思录实在是太文明了,大家素质都蛮高的,阴阳怪气的人也很少。大家纵然观点不同,互相看不起,基本还是各自阐述各自观点。我觉得相比其它各种乌烟瘴气的地方,集思录真是一泉清流。我个人感觉还是因为财富自由的人多了,心态也都比较平和,戾气没有那么重。观点不同很正常,毕竟每个人各种背景都有很大不同,能畅所欲言不正是当今中文互联网最缺的吗?我又没有啥特别的目的,只是分享自己知道的事实而已,大家畅所欲言好了,反正我可以选择性过滤。
另外,我并不是LLMs的研究者,只是从一个应用者的角度来看这个问题,暂时没有什么特别有学术价值的东西需要去特别探讨,就像前面提到过的,发在集思录只是机缘巧合。另外顺便说一句,最近关于LLMs论文也太应用了吧,感觉是纯粹拼编程能力和996的程度了,中国公司应该很有竞争力啊,感觉在微软或者OpenAI发布更多的信息之前大家只能拼应用场景了。
投资领域还是太专业了,现在LLMs应用场景不是很明确,最近WSJ才发了一篇文章讨论这个事情,结论是现在华尔街上不是主流,只有RL比较有前景。目前很多讨论也多偏空对空,没有什么有力的证据。我比较关注的是LLMs的能力极限,有些比较傻的问题也算是在这上面有所帮助吧,希望能看到更多这样的例子。
最后看你的描述,我还以为就我一个人会感到沮丧啊这种情绪呢。不过确实是,越了解,越觉得畏惧,希望自己不会在60岁的时候成90年代的下岗女工。
赞同来自: jjmdh
楼主不必和大家太过较真,真理永远掌握在少数人手里,大部分人傲慢偏见很正常的。“技术在手,天下我有”和“这次真的不一样”是某些科研人员,尤其是刚入行不久踌躇满志的科研人员的两大幻觉。
我是电子信息领域国内TOP2的Prof.,自从chatGPT出来以后,我参加的每场学术会议,都有院士专门围绕chatGPT做专题报告,我逐渐意识到这次可能真的不同。随后花了大量时间研究了一下,越研究越兴奋,到最后有些沮丧。以chatGPT为代表的自然语言AI模型已经发生了质的变化,未来我们很有可能迎来诸如发明蒸汽机、发明...
另外即使GPT真的是工业革命,信息革命级别的技术,它也不会是这一波就能干啥的。像这种革命每次都是先提出概念,全民炒作期待拉满,巨大泡沫,泡沫破裂死掉95%,然后再缓慢复苏,指数增长,最后真正改变世界。
楼主不必和大家太过较真,真理永远掌握在少数人手里,大部分人傲慢偏见很正常的。我是电子信息领域国内TOP2的Prof.,自从chatGPT出来以后,我参加的每场学术会议,都有院士专门围绕chatGPT做专题报告,我逐渐意识到这次可能真的不同。随后花了大量时间研究了一下,越研究越兴奋,到最后有些沮丧。以chatGPT为代表的自然语言AI模型已经发生了质的变化,未来我们很有可能迎来诸如发明蒸汽机、发明...感谢分享哈,有哪些学术论坛可以分享一下吗,谢谢哈
鉴于大家讨论中容易出现的一些情况,这里首先声明一下,下面的内容不是为了显摆,是不得已而为之,
一是为了让大家理解,虽然个人逻辑跨度有点大,但是也是经过重重考验的,
二,也是不希望看到,有一天中国在面对AI问题的时候,再说出“落后就要挨打”这句话。
个人因为在几年前,修炼中的一次恍然大悟,不到一秒,明白了一个很复杂的人类文明系统的框架逻辑,从而完成了个人文章——从宗教科学哲学思想主义看文明走向(文明之光),文章中对人工智能进行了很多说明,当时就已经从多个相互基本独立的角度,意识到了人工智能对人类文明各个方面的颠覆性作用,然后在很多的修炼群,哲学群,科学群进行讨论,
因为逻辑跨度过于大,能够理解的基本没有遇到,反而多个老师认为,这么大的系统,恐怕不是一个人能够完成的,而个人的解决方法其实就类似chatGPT的方法,不需要花费多少时间精力金钱就完成了。
chatGPT出来后,情况得到了改观,不少人认识到了人工智能的巨大能力,认同个人文章观点的理念不断出现,但是基本还是不能畅所欲言。
并且现在的讨论,见到的内容更多的是术层面的,象朱院长赤壁赋这样道层面的,并且用比较优美的意境写出来的,很少见,里面的深层次内容很多都是点了一下,故请帮助推荐一下相关学术论坛,谢谢哈
野生国师?讨论人工智能的帖子下面,有各种类似讲潘多拉魔盒打开了的回复,马斯克,霍金也警告,
很多的学术期刊上,有大把的教授,讲师说人工智能伦理的,
个人讨论这个,是看到2016年的影片x档案中的阴谋论(疫情),已经活生生的在我们眼前才上演过,各种影视中的阴谋论,也是眼看着不断现实起来了,95%无用阶级的事情也已经具象化了,不只是概念了,大家应该都是在这个范围内的,故希望大家觉醒,供参考哈
哥德尔不完备性不是一个问题,它不需要被解决。这是一个事实:数学真理的概念不能被包容在形式框架之内。而人类智慧的体现恰恰不是形式主义的,其实哥德尔本人的不完备性的证明就是最好的例子。这一点正是基于算法的AI和人类智慧目前最大的区别。不完备性确实不是问题,问题是不完备的形式系统,可能永不完备的智慧。
至于人类对形式系统不完备性的证明,哪一点不是形式主义的?并不能证明人类智慧的超越性吧。
人类智能也无法解决哥德尔不完备性。这一点本身无法否定AI达到AGI水平的可能性,因为人类智能也不是完备的。哥德尔不完备性不是一个问题,它不需要被解决。这是一个事实:数学真理的概念不能被包容在形式框架之内。
而人类智慧的体现恰恰不是形式主义的,其实哥德尔本人的不完备性的证明就是最好的例子。这一点正是基于算法的AI和人类智慧目前最大的区别。
不是套用几个专业名词就能体现深刻,搞技术的其实都清楚,多数酷炫的专业术语往往是创造出来用于发文章、拉项目、搞投资、提升溢价的。建议你了解一下非递归数学。它们有答案,但是不存在决定答案的一般算法。其实早在上世纪上半叶,哥德尔和图灵分别从数学上证明了:形式数学问题不存在能够判定真命题的一般算法解,也就是希尔伯特问题的不可解。这其实在一定程度上已经判定了基于算法的AI发展是一条死路。人类智能也无法解决哥德尔不完备性。这一点本身无法否定AI达到AGI水平的可能性,因为人类智能也不是完备的。
感谢分享哈,从历史唯物主义,阴谋论,宗教科学哲学思想主义的汇通,这么几个方面观察,个人认为此模型最合适人类文明发展,也符合国家方向,能够解决人类95%无用阶级问题。野生国师?
个人认为这个人工智能伦理是最应该首先研究的,否则出现人类文明危机。
借用东方时事的一句话,不希望看到,有一天中国在面对AI问题的时候,再说出“落后就要挨打”这句话。
最后还是一句话,推荐多读论文哈。玄学讨论我就没什么兴趣和时间参与了,不过欢迎任何形式的想法和观点,就像我以前说的,以后有空我会把它们抓下来用GPT来看看它怎么回复。因为现在OpenAI不给我端口,所以4.0 API和插件一直用不上,只能等,后面有什么比较有趣的项目和成果再来分享。看了楼主介绍的人类行为的交互式仿真,和赤壁赋的二个文章,因为与个人文章竟然有较大的交集,而且楼主希望扩大知识圈,说一下个人的理解,供参考哈,
为了便于理解,减少歧义,先说明一下个人背景,是研究大数据及其编程应用的,完成了ctp的多周期,多品种,多策略的开发,因此人工智能中的很多理念方法都是研究过。同时研究了世界上很多的宗教科学哲学思想主义等等相关知识。
个人的结论,二个文章的理念,在不涉及文明导向的情况下,都是很好的科学模型,
但是其背后的底层逻辑,框架,其实是代表了二个文明的走向(中西方文明),处理不好极可能出现人类文明危机,是关于95%人类生死存亡的大事情,到了需要大家进行抉择的时候了。
细节逻辑和解决方法需要看个人文章(超长)。
- 大概率:利用计算机的算力和算法,大大提高效率,此非真正意义上的"智能”
- 极小概率:误打误撞,进化出了新的“智能”。毕竟科学史上有先"发现"或者"发明",再反推原理的例子。
如果真像你说的,人类有几百万年的进化。那么根据目前无人生而知之这个事实,只能说明这几百年的进化进化的是人的神经结构。据此推论,要么目前的冯·诺伊曼体系不适合产生智能,要么AI的研究重心应该放到如何让AI能自我调整自己的网络结构上,而不是像目前这样堆叠参数和训练数据祈求大力出奇迹。论坛里没人反对拥抱GPT,LLM,大家只是从原理上推演下它擅长的是什么,局限是什么,这会省下的很多无用的探索时间,就像...如果你只能给到ai一个三角形 而不去教他其他的内容 他能够发现三角函数 那ai就能替代人类 人类之所以伟大并不是学习能力 而是在于思维能力 人类懂得突破自我 发现与创造新的领域
赞同来自: glacia 、wjl127411 、eckeels 、lzq88 、山顶晨曦 、 、更多 »
按你这个逻辑,目前的AI技术路线是死路一条了。因为重点都是堆数据堆参数,可以类比为上学后的训练;而对应大脑的物理进化,也就是对网络结构的进化还是依赖于人去设计。个人认为确实如此,堆数据堆参数的方式一定是死路,至少这条道路是越来越内卷,越走越窄。这一点,做过量化策略交易的人应该会明白,参数越多越容易过拟合。
从认识猫的例子,可以直接判断目前的网络结构,或者说更大点,算法,需要千万倍的数据还达不到三岁小孩的效果,那基本可以推理说说明目前的算法就是死路一条。
未来的人工智能,最终要依赖计算机物理结构和实现原理的突破,以更优秀的物理结构替代现有人工智能对算法和数据的追求。要知道现在的计算机为了便于电路实现,最基本的单元就是一个个开关三极管,是没有生命力的,更不具备随机意志。
再配合材料科学的革命(身体材质、能源、传感器),看看能不能制造出给我们端茶递水、陪我们做饭睡觉的智能机器。
或许量子计算机才是未来,甚至有人说人脑就是一台量子计算机。我们之所以能够闻到气味,就是因为人的嗅觉细胞是一台量子力学检测仪,它通过发射不同能级电子束,观察气体分子对电子束的吸收和辐射光谱,得出气体分子的结构而判断不同的气味。狗的鼻子很灵敏,就是因为它们鼻子里这样的装置更多,检查的频谱更细更广。一个鼻子都这么NB,我相信我们脑子里应用的物理学原理远比我们想象的要多。
赞同来自: wjl127411
无监督学习。。。无监督学习的前提是数据高度量化,可现实世界谁去做量化?或则谁来定义指标(如速度、时间、距离这些指标)?机器能够自动首先这些量纲?
人为标注本质就是对数据的定性或定量过程。
首先,我要说的是,我非常清楚我的“无知”。正因为我非常清楚我的“无知”,所以我不会说ChatGPT就是未来或者是大家快来All In科大讯飞这种东西,因为我很知道我并不是一个预言者。这个帖子并不是要做一个预言神贴,而是通过我的各种亲身经历、试验结果来驳斥一些明显错误的结论,藉此鼓励大家勇于拥抱GPT和LLMs。这并不是什么活雷锋,而是我清楚自己的“无知”和时间有限,所以我急切的需要更多人在拥抱GP...如果真像你说的,人类有几百万年的进化。那么根据目前无人生而知之这个事实,只能说明这几百年的进化进化的是人的神经结构。据此推论,要么目前的冯·诺伊曼体系不适合产生智能,要么AI的研究重心应该放到如何让AI能自我调整自己的网络结构上,而不是像目前这样堆叠参数和训练数据祈求大力出奇迹。
论坛里没人反对拥抱GPT,LLM,大家只是从原理上推演下它擅长的是什么,局限是什么,这会省下的很多无用的探索时间,就像没有人会去医院找人救火,去消防局里找人看病。事实上我也在用Cursor和Copilot协助我工作,它们在简单的查找文档,帮忙写注释等任务上确实可以十倍提高效率,但我并不觉得目前的技术方案能很快做到让我能放心地去用它写的代码,我也不觉得GPT4.5甚至5能做到。在这个知识大爆炸的时代,看到个新事物就去无脑“探索”,那效率就太低下了。
andjsmile - 鹰
不是套用几个专业名词就能体现深刻,搞技术的其实都清楚,多数酷炫的专业术语往往是创造出来用于发文章、拉项目、搞投资、提升溢价的。我主要是要表达整个GPT对于生产力的提升是实实在在的,尔不在于模型是否真正像人一样去思考,或者其最终是一条死路。
建议你了解一下非递归数学。它们有答案,但是不存在决定答案的一般算法。
其实早在上世纪上半叶,哥德尔和图灵分别从数学上证明了:形式数学问题不存在能够判定真命题的一般算法解,也就是希尔伯特问题的不可解。这其实在一定程度上已经判定了基于算法的AI发展是一条死路。