一时之间,引发了非常多的热议。
甚至,是引发了一些机器人领域的相关人员的小范围讨论。
“早些年波士顿动力研究的是robot control方向的技术,对于机器人AGI没有帮助,研究这么久,全是研究平衡问题,浪费了大量人力物力,也没办法general到任务层级。”
“的确是这样的,现在热门的软体机器人,触觉,大语言模型,更是捉襟见肘,到处水论文,软体有多水不细究,本科生就能水,大语言模型,那更是一个技术活儿,一般的公司,真的搞不定,如果是哪家公司说他们能搞定软体机器人,我第一个不相信,现在偏向中性质疑吧!”
“目前学术界和工业界,对于机器人任务本身,对于人类学习本身没有任何深度思考,deepmind learning领域,几乎没有任何像样的学术成果出来,高瓴这是在挑战学术最前沿啊!”
“完全同意楼上的说法,但是我们除了拿Transformer和Diffusion水论文还能做什么呢?控制和规划严重依赖模型,“做一盘色香味俱全的红烧肉”这样的任务没办法建模,即使真的层层分解得到了一个模型,建模的过程也将充满着主观臆断和胡乱近似。RL和VLA严重依赖数据,真靠VLA训练出AGI来需要的数据量可能超过宇宙中的原子总数。”
“现在一些知名的机器人公司,连控制都做不好,就像楼上说的波士顿动力,特么我读博士的时候就开始玩了,现在还是在实验室里头玩,都玩个没完了,很难想象高瓴能做什么“任务”。靠过拟合然后一卡一卡的做demo?”
“这是个逻辑性问题,控制control只是必要条件,不是充要条件,跟你照相机像素不能低,否则image啥也看不清,很难做什么任务,这些也是必要条件,但是像素高,跟实现AGI没有半毛钱关系。control只能保证任务顺利进行,无法对于物理世界进行表征深度解析,也无法理解物理世界。”
“那就是很局限,动力系统轨迹和model,你要先给出来,比如mpc,现实是model基本上不可能预先知道,那control也就是没有意义,难点本身就不在control,而是把物理世界的各种复杂规律进行建模这一过程。”
“的确是,难度太大了!这次倒是要好好看看,高瓴是怎么玩儿的。”
“高瓴做这个东西,还是和大学为主的学术界完全不同,他们可是
本章未完,请点击下一页继续阅读!