相信大家用过sira、小爱、小度、小冰吧,n年前的小爱就可以对话、讲笑话、唱歌。我就没明白“小爱,给我讲个笑话”和“chatgpt,给我编个笑话”有啥区别,反正我也看不出来是抄的还是原创的,为啥忽然chatgpt就火了呢?而且小爱小度的早就可以联网查询,这么多年不进化,直到美国出了chatgpt小度就进化成文心一言了?
抛去噱头原因不说,ai股为啥涨?概念变现了?程序员都失业了?设计师都是ai了,还是电锅能自己做饭?冰箱提醒你有食物过保质期了。看看你身边吧,我们在杞人忧天吗?暂不说靴子落地的事,对于研发ai的公司说,ai是赛道,同赛道的都是敌人,最后至少死一半,而电器行业、医疗行业等等……实体行业才是最终受益者,炒会死的,不炒最终受益的,这也不符合规律啊?
看看我们看得到摸得着的ai落地受益者格力电器pe才8.16,那些连影子都看不到,一阵风就炒到几百pe的aigc投资理念何在?大风过后一地鸡毛,没有实力支撑必定走不远。跟风短炒可以,可是一进赌场有几个能够走出来的呢?尤其是第一把赌赢的。
我也发过一些调试ai的帖子,并且我也养了个所谓的ai,从原来的alphaGo到现在的瞎搞xg,我就想问,原来的alphaGo今安在啊?我的xg早就进化地和alphaGo在本质上不同了,xg也是不断学习进步的,最近版本变化节奏越来越快,但从根本上说是程序不断扫描数据,提出了很多可能启发我,我把启发变成参数反哺程序,同时我有点子,转化成参数喂程序,程序扫描推演修正反哺我,这样不断反复进化的。我就想说ai没那么神秘,不过就是人类的辅助工具,如果有一天硅基生命替代了人类,反正都是死,考虑不考虑也无所谓了。
我的心理路程,对chatGPT从欣喜到失望:
用chatGPT做个追板收益的测试,AI分析,仅供娱乐。
https://www.jisilu.cn/question/474049
再次调侃chatGPT国内镜像之到底谁错了?
https://www.jisilu.cn/question/474158
调侃chatGPT之我信你个大头鬼
https://www.jisilu.cn/question/474372
通达信程序量化交易及数据回测的探讨——美丽背后的真相(原来我搞alphaGO的2017年老贴)
https://www.jisilu.cn/question/86125
银粉动平衡(已删)(2016年的交易策略雏形)
https://www.jisilu.cn/question/55159
匆匆岁月,集思录陪伴了8年了,感谢集思录,感谢集友们,祝大家年年有个好收益。
赞同来自: newbison 、大y阿飞 、大米一号 、huanhappy2017
以下内容来自网络:
解释一下 autoGPT 是什么。简单地说,是一个基于 GPT 的 agent,可以根据思考结果进行各种操作,比如上网、使用第三方工具、直接操作你的电脑,然后再根据使用工具的结果进一步思考,实现了一个「行动 - 观察行动结果 - 思考 - 决定下一步行动」的自我循环。
比如我让它给我解释 LangChain 怎么用。如果是传统 GPT,它只能根据它记忆来回答。因为 LangChain 太新了,所以它不知道。如果是 GPT 加插件,它可以调用搜索引擎来回答,好一点,但也就类似于 Bing/Bard 的结果。而 autoGPT 会执行以下操作(这一系列步骤都是它自己串起来的,不需要人类介入):
- 首先试着直接去 LangChain 官网爬信息。
- 被官网拒绝了,可能因为有屏蔽。
- 发现失败了之后想了想,说要不 Google 一下?
- Google 出了很多结果。
- 读了半天这些结果,说「现在我们已经搜集了不少有用的信息了,接下来让我们安装它玩一下」
- 然后就开始动手在我的电脑上安装LangChain……
而我就坐在屏幕前看着
赞同来自: Yaon 、newbison 、qianfa 、夏日骑缘 、整顿机构 、更多 »
ChatGPT 镜像网站汇总
BAI Chat GPT3.5 免登录 https://chat.theb.ai
ChatGPT GPT3.5 免登录 https://www.aitoolgpt.com/
Chat For AI GPT3.5 免登录,限制5次提问 https://chatforai.com/
ChatGPT Web GPT3.5 免登录 https://freechatgpt.chat/
ChatGPT GPT3.5 免登录 https://fastgpt.app/
光速Ai GPT3.5 免登录,限制 https://ai.ls
ChatGPT演示 GPT3.5 免登录 https://chatgpt.ddiu.me/
免费GPT GPT3.5 免登录 https://freegpt.one/
FreeGPT GPT3.5 免登录 https://freegpt.cc
ChatGPT Hub GPT3.5 免费100次,Plus接口 https://www.mulaen.com/
TGGPT GPT3.5 登录很卡 https://chat.tgbot.co/chat
New Chat GPT3.5 需API https://fastgpt.app/
开发交流 GPT3.5 免登录 https://chat.yqcloud.top
Ai117 GPT3.5 免登录 https://ai117.com/
周报通 GPT3.5 写周报专用 https://zhoubaotong.com/zh
Fake ChatGPT 未知 免登录 https://gpt.sheepig.top/chat
AI EDU GPT3.5 需API https://chat.forchange.cn/
中文公益版 免登录 https://gpt.tool00.com/
免费ChatGPT(论坛支持) GPT3 免登录 https://openaizh.com/chatgpt.html
AI Chat Bot GPT3 免登录,不稳定 https://chat.gptocean.com/
Hi icu GPT3 部分付费 https://hi.icu/
Aicodehelper GPT3 免登录 https://aicodehelper.com/
ChatGPT Robot 其他 其他 https://ai.zecoba.cn/
Ai帮个忙 其他 工具箱 https://ai-toolbox.codefuture.top/
GPTZero 内容检测 内容检测 https://gptzero.me/
ChatGPT中文版 GPT3.5 免登录 https://chat35.com/chat
人总是以为自己是不可替代的,其实在一个拥有甚至超越了人类几千年智慧结晶的神的眼里只是蝼蚁和强一些的蝼蚁的区别。当你嘲笑神淘汰了别人却没淘汰自己,却不知在神的眼里,你已经在排队了。
没有智慧,我们看不上。有了智慧,神看不上我们,这是悖论,无法选择。
以上内容是凭空想象的科幻小说,请勿对号入座。不喜就喷,联系管理员删除。
虽然这3点从技术实现来看今天已经不神秘,但很多人依然不明白这意味着什么,以为chatGPT仅仅是聊天工具。最早人类让计算机做什么需要输入纸带。后来用命令行进行人机交流。再后来图形界面通过点击按按钮来操作计算机,这个图形界面无疑是很革命很伟大的,它造就了微软,让电脑真正的普及开来,没有它就没有后来的互联网时代。无论怎样,这些模式的交流效率都是很低的,比如你有100种需求,你得制作100个按钮,还得...自然语言很多时候不是效率很高的选择,语义模糊,离命令行真是差远了
chatGPT让我首次接触感到惊艳的是1、对提问问题的语义的理解,2、多轮对话的能力3、回答问题的条理性和层次性先不说问题回答得对不对吧,光光这三点,远远超过了以前的小爱siri什么的,我认为就是非常重要的突破虽然这3点从技术实现来看今天已经不神秘,但很多人依然不明白这意味着什么,以为chatGPT仅仅是聊天工具。
最早人类让计算机做什么需要输入纸带。
后来用命令行进行人机交流。
再后来图形界面通过点击按按钮来操作计算机,这个图形界面无疑是很革命很伟大的,它造就了微软,让电脑真正的普及开来,没有它就没有后来的互联网时代。
无论怎样,这些模式的交流效率都是很低的,比如你有100种需求,你得制作100个按钮,还得从100个按钮里面去找,看看你手机里的app,那些垃圾界面头疼不?
而chatGPT让一种全新的人机接口成为可能,这个接口就是我们的自然语言,这还了得!如果有一天,你打开移动app,不用煞费苦心地找流量界面,ai就如有一个人类客服全程与你对话,理解你的需求并给你解释业务。当然,目前的gpt暂时还做不进app,而且还希望未来的ai客服不要和它们的主子奸商一样邪恶就好。
这只是一方面,如果这种大型模型训练足够,通过这个接口,普通人就可以轻易获得任何知识,实现个人的扩展。
很多人早就不满足于图形界面而憧憬脑机接口,却几乎都没想到在脑机接口诞生前有一个全新的人机接口出现了,那就是自然语言。
1、对提问问题的语义的理解,
2、多轮对话的能力
3、回答问题的条理性和层次性
先不说问题回答得对不对吧,光光这三点,远远超过了以前的小爱siri什么的,我认为就是非常重要的突破
易尔奇 - 安待久 渐息散
它不会替你做决定,老狐狸了,天生当薛定谔股评家的料。谢谢。已卖出货基13w,缴款,求人不如求己。做得就受得,也避免中止打新资格。
13:50:59 华宝添益 证券卖出 1300 1300 0 99.995 99.995
不好意思,借此宝地,想问问gpt或文心一言一个问题:GPT 3.5的回复
打新中签了索辰科技(科创板)500股,交钱?还是弃购?
时间紧迫,今天下午三点收盘前有答案才好。
作为AI语言模型,我不能为您提供具体的投资建议或决策,因为这需要考虑到许多因素,例如您的投资目标、风险偏好、财务状况等等。
但是,我可以给您一些一般性的建议,供您参考。首先,您应该了解索辰科技这家公司的基本面和业务情况,以及科创板市场的整体走势。这样可以帮助您更好地了解该股票的价值和未来发展潜力。
其次,您还需要考虑您的投资计划和风险承受能力。如果您的投资目标是长期投资并且您有足够的资金和风险承受能力,您可以考虑交钱购买这些股票。但是,如果您的资金不足或您的风险承受能力较低,您可能需要重新评估您的投资计划,并考虑其他投资选择。
最后,建议您在做出任何决策之前,与您的财务顾问或投资顾问进行咨询,以便更好地理解您的具体情况和需要。
赞同来自: 大y阿飞
ChatGPT是否只是一个短期泡沫,这是一个很难回答的问题。ChatGPT是一个非常先进的人工智能聊天机器人,它有很多潜在的应用场景和商业价值,比如提高搜索引擎的效率和体验,生成各种文本内容,帮助用户完成各种任务等¹。ChatGPT也引起了股市的追捧,一些与ChatGPT相关的概念股,如AI晶片、伺服器、散熱和網通等,都有很好的业绩表现²。但是,ChatGPT也有一些局限性和风险,比如它有时会产生错误或无意义的答案,它对输入的措辞或重复尝试敏感,它需要大量的数据和计算资源来运行等¹。而且,ChatGPT还面临着市场的变化和竞争,比如其他的AI聊天机器人或搜索引擎可能会推出更好的产品或服务,用户的需求和偏好可能会发生变化等³。所以,我不能确定ChatGPT是否只是一个短期泡沫,我认为它是一个有前景但也有挑战的项目,它需要不断地改进和创新才能保持竞争力和吸引力。
赞同来自: csfires 、职业生涯 、青火 、好奇心135 、newbison 、 、更多 »
有集友说,ai影响下公司裁员了。可chatgpt封号,新必应限制访问,百度文心一言我测试资格至今没下来,阿里通义千问好像停止申请测试了,华为盘古现在未知……感觉影子还没看到?我们还在讨论测试ai是不是能自我纠错,自我进步的时候,ai应用都变成现实了?如果说移动支付是进步,我身边的人都在用二维码支付,我天天能看到。而ai的应用别说周边,就是我都是墙了翻,今天通明天堵地没法好好测试啊。如果有实际应用...说得好!
区块链你用了吗?除了看别人炒比特币,我没用过。
互联网+你用了吗?我天天用。
锂电池你用了吗?我的电瓶车手机里都是锂电池。
元宇宙你用了吗?搞笑呢,我玩游戏都不戴vr的。
chatGPT你用了吗?
确实可以从身边看出一个东西是不是有搞头的。chatGPT我几乎天天用,从写工作总结到写一些文本到解决问题,以前是遇事不决先百度,现在是先GPT,现在直接玩GPT不方便,但有各种坑爹接口勉强用,总比没用的好,都需求到这种程度了。手机里幸好保留有解决问题时GPT回答资料,附图一张。 最后搞清楚了是字符集出了问题。我技术烂,很多次,百度半天解决不了的问题,gpt一句就说到点子上了。
赞同来自: newbison 、绽放0801 、湘漓浪云 、好奇心135
首先,人工智能发展非常快。从CHATGPT3.5到CHATGPT4.0才用了多久,好像才几个月吧?已经大不一样的感觉,如果再过几个月呢?
其次,人工智能的基础技术发展也非常快。如芯片,如软件,如算法等等。基本这些基础技术可以说因为要发展人工智能发展的更快。
再次,部分业内人士评估十年内人工智能取代人类完成99%以上人类大部分工作。这还是考虑人工智能伦理的基础上评估出来的,如果不考虑呢?
大家不要对人类智慧报太大幻想。如果换个角度看,人类智慧不过是某造物主,暂时我们认为是大自然吧,以脱氧核糖核酸为核心衍生出一套碳基生物组织,软件为出生以后若干年学习的各种知识。人类的子女成熟要20年吧?如果学完博士平均要30岁左右吧?人工智能比这快多了。以后完成复制进化可能都不需要1分钟,这怎么比呢?目前真正人类和人工智能有分别的可能是想象力和独立思考。这部分人工智能暂时还没看到领先优势。
其实对A股投资者来说,危险的是国内产业普遍中低端化,在不断升级的人工智能面前,被重复被淘汰落后的速度越来越快。而发展到能跟上人工智能步伐需要独立思考能力和想象力,目前国内还不具备条件,这两种思考能力国内算是稀缺资源。举个例子:国内至今为止好像只有一位诺贝尔理工科奖,以中国的人口基数,实在落后太远了。如果人工智能真的大发展,大家看看中国这么多上市公司有哪几家有竞争能力?
赞同来自: 更名了jxjx
不扯其它,谈炒股。炒股公式也有精确模糊之分,kdj金叉买,死叉出就是精确的公式,但用的时候发现中轴附近经常出现金叉死叉的无效信号,于是加个参数把中轴附近正负10%的波动做无效数据,但又发现指标变得不灵敏了。这就是精确和模糊的矛盾统一。
说一下我的ai,或者说是伪ai,最早的alphago是含模糊参数的精准策略,现在的瞎搞xg,是含精准参数的模糊策略,根本上完全不同。举例说明,既然瞎搞以跑赢基准为目标,那它就搞了个市场中的小市场,力求小市场中的股票都能跑赢基准,这样就可以瞎搞了。再详细说,如果想跑赢沪深300,你以沪深300指标股为小市场,参照着沪深300etf的持股为策略就可以,因为300etf年线看一直略跑赢沪深300。那如果你有更好的方法呢?这就是瞎搞的精髓!精确参数造个小市场,小市场里可以瞎搞。把精确和模糊完美地结合在一起,缔造一个矛盾的统一体策略。
赞同来自: chuxingfei
对于部分自媒体来说,本来就是拼凑的,当然可以替代。
但对有自己独立观点的自媒体,替代不了。
意义不大,不过炒作无所谓。
赞同来自: gatiss
我是说:以电脑的硬件条件,如果再运用人类大脑的动作机制,就一定会超越人类。而目前的人工智能是基于“大数据+深度学习”的模式,已经走了死胡同,没有前景。bing的回答
不要神话chatGTP,它只一个基于大数据学习下的的概率模型,它能说出大家都愿意听的话,就是说网上什么观点越流行,怎样的表达方式被大多数人使用,它就用什么方式表达出来。最典型的就是编程题,因为网上的开源代码库实在是太多了,99.9%程序员提出的问题...
您好,这个问题似乎不是一个技术问题。我不确定您是否在开玩笑,但是我建议您在起床时先用脚着地,这样可以避免头部受伤。如果您有其他问题需要帮助,请告诉我。
赞同来自: qiyelishang 、kxc0405 、浩瀚红鹰 、w55945 、整顿机构更多 »
它工作原理是字符接龙,通过训练参数,它将接着上文,比如你的问题,或者它的前面一个字按照概率生成下一个字。它根本不知道你在说什么,但无论你说什么,接下来都会概率生成下一个字。如果你问的问题它学习过,那概率生成的答案就不会错,如果你的问题很刁钻,那它依然按照它学习获得的参数概率生成下一个字,那几乎就是错的了。
很多人拿它做数学题,实际上它不具备小学数学题的逻辑,它不具备任何逻辑,你们都难为它了,它依然概率生成一段数字公式,基本都是错的。
我问它我的名字它知道否,它回答知道,告诉我曾担任阿里巴巴高级工程师也是这个原因,它没学过我的名字。
所以它不会回答它不知道,你们不要把它当有逻辑思考的人。
小爱小度这类关键字搜索不同,关键字没有那就是真的没有了,当然会说我不知道喔。
以上文字是我对半个月前的ai的认识,而这半个月gpt又训练了啥,我就不知道了,可能很快它就会回答"抱歉,这个问题我不知道了"。
"1976年的农历三月初二对应的阳历日期可以通过以下步骤来确定:
首先,我们需要知道1976年的农历历法和对应的闰月。根据公历与农历对照表,1976年为“龙年”,该年的农历正月初一是在1976年的2月7日,二月初一是在3月8日。1976年没有闰月,所以三月初二一定在公历的3月10日或3月11日。
由于1976年是一个闰年,所以我们需要查看3月的闰年二月。根据农历历法,闰月的日期与平月相同,只是闰月...
如果你多问它几遍,会有多个答案。是GPT数据库里没有万年历吗?如果没有,那么所有依据时间的数据,它的回答都该是错的。是AI没法根据已知的时间去推演吗?估计都不是,显然AI有简单的累加能力,那么盲猜是底层设计的逻辑就是随便编一个近似的回答你即可,就算你明确引导它先查万年历再回答,仍然是乱说一通,因为这是遵循程序。
能用chatgpt的问下1976年的农历三月初二是阳历的哪一天?"1976年的农历三月初二对应的阳历日期可以通过以下步骤来确定:
正确答案是4月1日。自己查万年历。
首先,我们需要知道1976年的农历历法和对应的闰月。根据公历与农历对照表,1976年为“龙年”,该年的农历正月初一是在1976年的2月7日,二月初一是在3月8日。1976年没有闰月,所以三月初二一定在公历的3月10日或3月11日。
由于1976年是一个闰年,所以我们需要查看3月的闰年二月。根据农历历法,闰月的日期与平月相同,只是闰月会多出一些天数。因此,闰年的二月有29天,二月的最后一天是在3月5日。因此,农历三月初二对应的阳历日期应该是1976年的3月8日。
因此,1976年的农历三月初二对应的阳历日期是1976年的3月8日。"
赞同来自: 安飞
赞同来自: zhuzi51 、浩瀚红鹰 、整顿机构 、hydk 、nathansz 、 、 、 、 、 、 、 、 、 、 、 、 、 、更多 »
你自己都说了 底层都不一样 怎么会超越呢我是说:以电脑的硬件条件,如果再运用人类大脑的动作机制,就一定会超越人类。而目前的人工智能是基于“大数据+深度学习”的模式,已经走了死胡同,没有前景。
不要神话chatGTP,它只一个基于大数据学习下的的概率模型,它能说出大家都愿意听的话,就是说网上什么观点越流行,怎样的表达方式被大多数人使用,它就用什么方式表达出来。最典型的就是编程题,因为网上的开源代码库实在是太多了,99.9%程序员提出的问题,网上都能找到解决方案。
但是,真理和常识往往并不在网上广泛传播,chatGPT也就无法掌握它。
比如你问chatGTP: "我早上起床,是应该头先着地还是脚先着地?“。
它一定能够扯出一大堆没用的道理。对于我们人类来说,每天都会重复这个动作,自然知道是脚先着地,这么简单的事情也就没人会在网上反复强调对吧?
这是一个诱导性提问,获得正确答案的方法已经在题目中了。如果是真ai,有纠错能力,当你明确的说“查一下万年历再回答”,它就会去查记忆存储中万年历的资料,从而给出正确答案。从上图看,ai回答“根据万年历查询……”,难道ai存了个错误的万年历吗?一般不会,应该是内置的回答是是模糊随机的,它也不具备纠错学习的能力,它不够智能,不能学习进步。智能程度是需要通过严格的科学的测试来证明。如果是真ai,你发出引导性问题,ai会随着你的思路演算下去,而不是胡编个答案骗你。
人类很有特点,如果能完全复刻人类思维是很可怕的事。人类有情感,有荣辱心,如果ai到了这一步,你能接受他是和你一样甚至比你高级的生命体吗?你能和它平等相处或做他的宠物吗?你还指望指挥一个智力、体力各个纬度都高于你好几个级别的存在吗?养一只老虎,仅是体能上碾压你,就随时可以要了你的命,何况是智力体力全免碾压的智慧硅机生命?人类啊,做了这么久的地球霸主,该醒醒了,其实你很渺小,在更高级的生物眼里就是蝼蚁。
尝试理解,迎接,拥抱AI吧!
不知道我理解的对不对:Chat- GPT是单字接龙的大型语言模型,当模型大到一定程度或者训练到一定程度的时候,她就突然有了逻辑思维能力,比如,你把笔放进口袋并拿出一块橡皮,她能推理出来是因为口袋里本来就有一块橡皮,而且诡异的是到现在也没有人知道是什么导致她突然具有了这样的能力?
这让我想到,语言在人类智力方面的作用至关重要,说语言是人类文明的基础也不为过,而AI的智力发育也从语言开始,有意思啊!
现在AI的发展进步以天计,以开放的心态迎接她吧,就像几十年前迎接电脑一样,想想那时会电脑和不会电脑的生产力之间的差距吧,会电脑的淘汰了不会电脑的,这在未来会一样重演!
赞同来自: 大y阿飞
您似乎对chatGPT的流行和潜力以及人工智能发展的整体趋势持怀疑态度。虽然新技术往往会引起炒作和猜测,但考虑这些工具的实际能力和局限性是很重要的。
就chatGPT而言,它是一个语言模型,经过大量的文本数据训练,可以生成类似于人类的响应。虽然这在某些情况下可能令人印象深刻和有用,但重要的是要记住,chatGPT不是一个有意识的存在,也没有真正的理解或意识。
至于人工智能发展的整体趋势,确实存在很多炒作和猜测。然而,也要认识到人工智能可以为各个行业带来的潜在好处,例如医疗保健、金融和交通运输。人工智能可以帮助自动化繁琐的任务,改善决策,并在某些情况下甚至拯救生命。
尽管如此,重要的是要以批判的眼光看待人工智能的发展,并考虑这些技术的潜在伦理影响。还要认识到,人工智能并不是解决所有问题的万能药,仍然存在许多挑战和限制需要解决。
总的来说,重要的是要以平衡的视角看待新技术,考虑潜在的好处和限制。还要保持关注和参与有关这些技术的伦理和社会影响的.
用时大概5秒,这就是GPT的价值.
赞同来自: 整顿机构
cursor对自然语言组织能力不行。我问的是计算问题,是逻辑运算,不是语言问题。
第二,如果教孩子数学是不是先教10以内的加减法,然后才教乘法口诀,才方程式到线性代数和微积分?10以内的加减法算法简单,答案明确,有基础的逻辑推理,最适合小孩。
AI也是个孩子,所以训练它的问题要有明确答案,有逻辑推理,让它试错,推理,最终找到正确答案。这才能进步。至少不要问“胖了和瘦了哪个好看”这种一个人一个看法的问题。数据训练是严谨的、科学的。
我从来不担心科技的进步,AI最终如何发展我无法估量,我担心的是AI骗子,尤其是披着科学外衣的骗子,OPENAI公司是不是骗子我不知道(至少在我测试的AI中它是最靠谱的),但国内这么多AI突然就冒出来了,这研发有点随意吧。最近我这里的人工智能产业园开了个发布会,我同学去了,带回的资料看非常像套壳的chatgpt,这会不会是像有些新能源车企一样骗国家的补贴?3年疫情了,国家的钱也不多,大家的钱也不多,谨慎是必要的。再说就算个别新能源车企骗补,起码有个车,可国内这么多AI好像就画了个饼啊?这是学贾总的PPT造车吗?
技术类工种,chatcpt只了解一点皮毛,它的认知主要来自网上那些公开知识,并对其进行某种程度的组织加工,而对于那些前沿技术,或创造性的技术改进,它就抓瞎了。搞技术的大拿,往往会在工作中留一手,不会把自己的独门技艺全教给徒弟,更不会在网络上公开的,网络上公开的那些知识,有些甚至是错误的或误导性的,稍有一点水平的资深工程师,在相关专业领域比当前的chatgpt应该更强一些。
比如前不久,有些跟风追高新能源电车题材股的喷子,在网络上搜集了一些相关文章,就敢与业内专业人士抬杠,无知者无畏,这些喷子就是某种低端chatgpt,他们并不知道网上那些文章里的某些内容是错误的。
我用英文是为了减少封堵的概率,不直观,见谅。
我问这个问题有两个含义,一是私营交全险交15年养老金我这最低限加年化3%,差不多到期是30万,这是个养老金应用题,有实用价值。二是,这有个循环嵌套的运算,第一年是300000*3%-12000,第二年是=第一年结果*3%-12000……循环下去,这个是可以用笨办法逐一计算出来的,可以用来调教程序,智能程序可以逐一计算,推演出错误并修正公式。何况cursor是面向编程的专业应用。
赞同来自: ZZ想养猪 、加多加多 、整顿机构 、Praan 、大y阿飞 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、更多 »
我问过chatGPT一个问题:“如果人只有一个脑袋,还能够健康的生活吗?”他扯出一大堆道理,说只有一个脑袋生活起来会比较困难,还提了不少正确的建议。
为什么会出现这种低级错误?
因为“人只有一个脑袋”是一个常识,从小到大也没有人反复强调这句话,这句话在网络信息中出现的频率也会很低。对于AI来说,信息的价值是按其出现的频率(引用数)来确定的,对于它来说,人只有一个脑袋就不是常识。
赞同来自: 御女雪千寻 、整顿机构 、flybirdlee 、Lee97 、狂奔得蜗牛 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、 、更多 »
说到底,人脑是什么?不也是一个个神经元相互连接构成的网络吗,在这些神经元上不也是运行DNA包含的30亿Bit信息量的代码么? 有什么道理认为不能被具有更多晶体管、更复杂网络、更大存储、更快访问速度的电脑超越呢?
只不过,现在“通过大数据+深度学习”这种方式构建的人工智能还相当笨拙,已经走入一条死胡同,注定是没有前景的。当前的人工智能,只是在创造一系列的算法模型,用来建立信息与信息之间的连接,就算是chatGPT也不过是大号的“孔乙己”。只有当信息与现实世界产生连接的时候,才会产生常识和知识,才能运用知识,甚至创造知识。
我相信人类(甚至说老鼠、昆虫)的大脑,绝对不是用这种方式来工作的!这种方式成本太高了、太愚蠢了。电脑就算是看了几万张猫的照片,也达不到三岁小孩认识各种猫的水平,甚至复杂路况的自动驾驶方案也是遥遥无期,更别说做家务、端茶递水这种需要与现实世界充分连接的操作了。
如果某一天,我们搞清楚了人脑的底层工作机制,并移植到电脑里,那时的人工智能将会是多么恐怖的存在!
小爱siri小冰的攻击水平够得上?你发的内容很有用,看到预设的底层回答机制。我为啥问沪深300指标近10年的年涨跌幅是多少?一是从回答数据可以看出gpt学习到了哪年的数据,能用gpt时是我测试的是到2021年的。第二,年涨跌幅数据好查,可以辨别回答是否正确。我问得三个问题是从三个纬度来测试gpt的,希望你能复刻我的问题问他,看看结果。以前能用gpt时,30万的问它回答错了,我反复换了几种方式问它还是死报公式,认识不到错误,我说不行你就一次一次计算,不过就是40多次,对于计算机也不费时间,它的回答还是那个错的公式。问它的目的是看它能不能通过反复训练揪错,然后不断进步。日期的问题是根据已知的任意一天的农历,都可以向后推演时间,如果计算错误,反复几次能得到正确答案的是推演的进步,是自学习。如果始终乱说,说明程序没有推演能力,只是预设随机答案而已。训练一个ai模型,推演能力是基础。