Warning: file_exists(): open_basedir restriction in effect. File(/www/wwwroot/egopass.com/wp-content/plugins/wp-rocket/) is not within the allowed path(s): (/home/www/egopass.com/:/tmp/) in /home/www/egopass.com/wp-content/advanced-cache.php on line 17
天津大学:让机器人学习神奇的技术“用眼睛看,用手做” – 51今日大瓜每日大赛 暗黑爆发料在线,真相大揭秘

天津大学:让机器人学习神奇的技术“用眼睛看,用手做”

天津大学:让机器人学习神奇的技术“用眼睛看,用手做”

这项创新技术是由前Yifu,Cui Haiqin,Huang Yaoting和Chen Yibin等研究团队开发的,这项创新技术于2025年8月出版。读者感兴趣的读者可以通过项目的起点https://bodied-r1.github.io/ offer of Project houth House获得完整的信息。 https://github.com/pickxiguapi/embodied-r1。数据集也在https://huggingface.co/if yuan上打开。当您看到必须移动到表右侧的元素时,大脑会自动分析对象的位置,计算运动路径,确定如何抓住它并告诉您准确地进行手臂。这个看似简单的过程是一个几乎不超过机器人的裂纹。问题的核心是,尽管机器人可以“理解”场景,但很难将这种理解转变为精确的动作。好像角色可以理解地图,但他们不知道该走路。研究人员S发现这个问题的关键是缺少连接“见”和“执行”的桥梁。创造性地提出了一种通用语言作为“指出”的桥梁;通过指出一个特定的位置,此简单的操作实际上包含了很多信息。基于这个直观的想法,研究人员开发了一种名为Engodied-R1的智能系统。 Incorporated-R1就像将机器人配备了一个超级脑,该机器人只有30亿个参数。这是相对较轻但非常聪明的。它们不仅包括复杂的视觉场景和语言说明,而且更重要的是,它们执行详细的推论,指导机器人“指向”并完成几项操纵任务。这项研究的创新是,作为机器人世界的通用语言,被定义为中间表达为第一个“信号”为“点”。无论哪种类型的机器人,无论哪种任务,它们都可以通过此“标牌”进行交流和合作语言。这是一种手势语言,世界各地的机器人都可以理解如何发明。为了训练该系统,研究人员建立了一个大型数据集,其中包含200,000个称为狗狗点的高质量样品。该数据集就像一本非常详细的机器人教科书,涵盖了各种复杂的操作场景和推理过程。更令人惊讶的是,研究人员采用了一种称为“加强调整”的培训方法。传统的培训方法就像让学生记住并记住标准的回答,而密集的调整就像鼓励学生独立思考并为正确的思维过程奖励他们。该金属代码特别适合处理“指向”任务的多个属性,例如,瞄准表右侧的空间”,该领域的任何一点都是正确的答案,强化学习可以奖励所有合理的选择,而不是记住在系统。在真正的证据中,R1合并表现出令人印象深刻的能力。我们以11种不同的空间推断和信号任务参考点达到Avant -Garde绩效水平。更重要的是,曾经更常见的新环境表明了强大的零样品泛化功能。在简单的模拟环境中,这是56.2%的成功率,与强大的参考模型相比,八个真正的机器人任务中的成功率为87.5%,提高了62%。这意味着,使用R1 Incorporated,它不需要对ESP任务特定的额外培训才能在全新的环境中正常工作。 1。禁用机器人“调整眼睛”的问题。当3年的牙齿看到桌子上的杯子时,您可以轻松获得它。但是,机器人在这一看似简单的动作背后提出了重要的技术挑战。机器人必须准确识别杯子,确定其位置和态度,计划握持路线,控制所有关节机器人臂并实时调整以适应环境变化。研究人员生动地称这一挑战“看到他们所做的差距”。机器人视觉系统非常复杂,可以准确地识别图像中的几个对象。这种视觉理解很难直接转化为有效的机器人动作。好像一个人可以理解复杂的机械图,但似乎不知道如何操作机械设备。在两个重要问题中可以找到路由主题。首先,缺乏数据。互联网上有数十亿个照片和文字,但是机器人真正起作用的高质量数据非常有限。培训机器人需要许多“演示动作”,但是收集此数据既昂贵又缓慢。第二个问题是不均匀性的问题。不同的机器人具有多种机械结构。有些是没有六度的圆顶机器人,有些是两个臂机器人,有些是mobiLE机器人。为所有机器人开发专门的系统是不现实的或经济的。传统解决方案通常分为三类:末端 – 端方法试图直接预测视觉入口的动作输出,但是就像一个从未在厨房里的人创建了基于成分照片的厨房桌子。模块化方法分解了多个子模块的任务,例如对象检测,路由计划和操作执行,但是此方法容易遇到“消息游戏”的问题。以前的模块中的小错误在随后的模块中被放大,从而导致完整的系统故障。研究团队提出的解决方案是将“点”作为感知和行为之间联系的一般中间表示。这个想法的天才是它的直觉和多功能性。当您将手指指向特定位置时,此简单动作实际上会传递复杂的语义消息。 knOW那里有什么,了解其功能,并计划如何与之互动。更重要的是,“指出”是与特定类型的机器人无关的表达式。无论哪种类型的机器人,您都可以理解“其位置”的含义。 2。四个“点”技能,以建立中央机器人的技能。研究团队精心设计了四个基本的“标牌”技能:这些技能就像机器人操纵的基本词汇一样,创造了复杂而多样化的行为模式。您可以调整它。第一个功能称为参考表达式。简而言之,它允许机器人根据语言的描述准确地找到相应的对象。例如,当他说:“拿到白色的电牙刷”时,机器人需要精确识别并在许多文章中找到特定的牙刷。这就像根据朋友的描述在人群中找到一个人群中的一个人一样。传统方法通常使用分元g图片以框架对象,但是划界图片不够精确,并且包含许多无关的背景区域。研究人员Adthey选择了一种点定位方法,并要求机器人指出对象内的确切点。这不仅更精确,而且还符合与人类互动的自然方式。第二个功能是区域关系的定位。这使机器人可以理解空间关系并找到正确的安排。通过说“在杯子和勺子之间放一个碗”,机器人需要了解“中间”的概念,并在相应的空间区域找到适当的位置点。该特征对于需要精确的空间推断的任务很重要。研究团队开发了一个自动数据生成过程。通过分析大量机器人操纵数据,自动提取对象的最终位置,计算与参考的空间关系CE对象并将关系信息投入图像中。第三个容量是对象的功能定位,该对象可以识别对象的功能部分。例如,使用刀,机器人需要知道您需要知道什么需要知道什么而不是刀片。就杯子而言,机器人需要知道您需要从杯子地图上捕获什么。此功能不仅允许机器人识别对象,而且还可以理解如何正确与它们互动。研究人员使用包含212个真实对象及其记录的管理数据集的一组标识数据,使用GPT-4O来重写相关问题,以改善其对对象功能模型的广泛理解。第四能力是视觉事业的一代,这是最复杂,最有力的能力。机器人必须生成一个完整的运动轨迹,该轨迹详细说明了物体如何从蓬托sta移动RT到终点。这种轨迹不仅需要考虑起点和最终要点,而且还计划避免障碍并保证柔软安全运动的中心途径。研究人员故意选择对象中心的轨迹,而不是机器人执行器的轨迹。生成的轨迹与任何特定的机器人无关,可以在各种机器人平台中使用。这四个技能相互补充,并共同形成了机器人操作的功能齐全的系统。机器人可以灵活地选择并根据任务要求组合这些技能,从而在不同情况下使用不同的手势和信号传导方法。 3。研究团队设计了一个精致的两个阶段培训过程,每个训练过程都有明确的目标和战略专业培训。第一阶段着重于为空间推理建立坚实的基础。就像学徒必须先学习了解空间关系,距离概念,对象的对象等的基本知识,就像他们需要学习使用工具的基本方法一样。研究人员建立了一个空间推理数据集,其中包含84,000个样本,涵盖了各种复杂的空间推理方案。这些数据源自两个众所周知的参考点,SAT和WhatsUp,并仔细过滤和格式化。为了防止机器人忘记学习专业技能的基本技能,他们还添加了18,000个一般推理问题,以帮助学徒学习专业技能,而无需忘记基本概念。第二阶段变化以开发超级技能特别的嘶嘶声。该阶段使用200K点数据集200K精心构建,由一项研究设备精心构建,其中包含大约200,000个高质量指导任务样本。我正在使用它。该数据集的一个特殊特征是它采用了“验证问题”Cuture而不是传统的“问题答案”结构。该设计有深刻的考虑。指出的任务通常具有多个正确的答案,例如它们指“表右侧的区域”时。传统的受监控学习方法迫使模型记住固定的响应,但是训练有素的模型却不灵活,并且在面临新情况时往往会失败。研究人员不仅要求人们背诵标准反应,而是采用了密集的Cape方法,例如主导刺激和奖励。当机器人给出正确的推理过程和信令结果时,系统会奖励它。如果机器人响应不够准确,则系统将根据响应的质量提供相应的注释。这种方法特别适合处理针对任务的多功能性,并且可以鼓励机器人发展真实的理解,而不是简单的模仿。在培训过程是多任务混合培训策略。在每个培训地段中,系统同时显示了不同任务的样本,从而使机器人同时通过单个培训来提高多个技能。这就像通过学徒同时练习不同的技能,并通过技能的PMOTOMOTION来加速能力的总体改善。为了确保不同的任务是平衡和培训的,研究团队仔细设计了多任务奖励功能,以确保每个任务具有适当的奖励权重。提及奖励功能的设计特别有价值。研究团队为每种任务设计了一种特殊的奖励机制。奖励格式确保机器人生产符合所需的格式,以便学徒需要以标准化的方式工作成果。评估奖励响应的准确性,验证点奖励位置是否精确,距离奖励提供ES密集的指导信号有助于机器人逐渐改善,轨迹奖励评估生成的路线的质量,而环境奖励直接通过DAND通过模拟环境的反馈来提供任务。该方法的这种训练有效性很重要。通过增强学习的训练模型不仅在每个参考测试中都可以很好地工作,而且最重要的是,在未完全看见的环境中可以表现出强大的概括能力,并且可以在环境中保持稳定。 4。数据集的构建:机器人学习知识的宝藏的构建。 200k积分的构造过程就像撰写高度详细的机器人百科全书一样。该数据集不仅大,而且更重要的是非常高质量,并且每个样本都是经过精心设计和严格预测的。由于代表定位任务,研究团队在机器人如何识别对象方面面临挑战。传统方法通常使用划界的BoxEsras,但是划界框往往具有太多无关的信息,并且不够精确。他们选择了一种点定位方法,该方法要求模型指向对象内的特定点。数据源非常丰富,包括通用网络图像以及Roboref和Robopoint的专业机器人的数据集。多种来源数据的这种融合确保了广泛的视觉理解能力和对机器人技术的专业知识。生成本地关系定位数据的过程特别聪明。研究人员开发了一个自动化过程,该过程允许自动提取机器人操作的许多视频的空间关系信息。此过程分为三个重要步骤:首先,我们提取视频上一个视频的工作对象的最终位置scene, and finally return this relationship information to the first video table, forming a triple triple of the “descriptive objective position of the” initial scene “. To guarantee the quality of the data, we also design a rigorous detection strategy to preserve only high quality samples with clear spatial relationships and reasonable composition of objects. To improve the capabilities of 3D spatial comprehension of the models. They especially built a set of relocation data of 3D objects based on the Isaac gym simulation喂食。添加此3D数据,不仅可以理解2D图像的空间关系,而且还可以处理现实世界中的3D空间推理任务。它精心操纵的作品。研究人员将这些部分注释变成有限表,作为功能定位任务的验证标准。他们超越了,他们重写了与特征有关的问题,例如“用刀切蔬菜时我应该保持什么部分?”使用GPT-4O。这种重写过程不仅可以改善问题的自然性,而且还可以改善对物体功能的了解模型。视觉轨迹产生的数据的创建是技术中最具挑战性的部分。研究人员必须自动从机器人操作的对象中提取移动轨迹。这是一个意味着多个先前训练的视觉模型的协作过程。首先,我们使用GPT-4O来识别任务中的密钥操作对象,关键点提取器与接地总和合并以自动识别对象的抓地点,并最终使用cotracker来计算密集的时间训练始于关键。为了提高轨道的质量,将轨道显示为八个谨慎的等距点,然后返回到第一个图像以形成一对“图像指令”。由于此过程意味着多个先前假定的模型,不可避免地引入噪声,因此IIT导致了严格的规则,并且通过手签名的测试集对检测标准进行了验证并连续改进。整个数据集过程完全反映了“质量比数量更好”的原则。数据集的最终尺寸为200,000个样本,但是每个样本都是严格控制的质量,可以为模型提供精确且有用的学习信号。 5。出色的性能:11个参考点是不可或缺的。配备的R1性能评估就像是一项全面的功能测试,涵盖了从基本的空间理解到复杂的操作推断,涵盖了所有级别。研究人员设计了完整的评估Uation系统不仅证明了具有标准参考点的模型性能,而且还验证了它们在现实世界中的实用性。在推理能力测试空间中,Incorporated R1在五个授权参考点中运行良好。这些测试包括与CVBENCH的视觉空间推断,闪烁的多模式识别,与CRPE的关系推断,SAT的空间容量训练以及对Embspacial Bank的综合空间理解。在15个子量中,Incorpated-R1的平均分类为2.1,显着超过了其他开源模型。特别是,对于需要复杂的空间推理的任务,例如深3D理解和空间关系判断,R1 Incorporated展示了解决或克服大规模封闭代码的GPT-4O模型的能力。在特殊的信号能力测试中,R1的合并性能更加令人印象深刻。在寓言表达定位任务中,-R1使用一组具有挑战性的Roboref测试达到了85.58%的精度,而这种挑战性的方法明显优于其他专业机器人视觉模型。 Roboref测试集的一个特殊特征是它包含许多相似的对象,必须通过精确的关系解释来区分,这些解释对理解模型的能力提出了很高的要求。当地定位功能的测试结果也令人鼓舞。在参考点2,在VABENCH点测试中,Incorpated-R1的成功率为69.50%,成功率为66.00%。这些测试要求模型不仅了解复杂空间关系的解释,而且还可以在相应的空间域内找到正确的处置。点。 VABENCH点测试集包含与真实场景接近的复杂任务的描述,并且最终模型特别困难,因为它需要一个推理功能符号。对象p定位测试验证模型能力以了解对象的功能部分。在专门构建的船上的参考文献中,Incorporated R1达到了56.63%的成功率,涵盖了105个厨房,研究和园艺工具,专门评估了该模型在面对无形对象时了解功能理解的概括的能力。由于这些对象从未出现在培训数据中,因此该成就完全说明了模型的概括。视觉轨迹产生能力测试使用多个评估指标。在Vabench-V测试中,Engodied-R1不仅获得了最低的RMSE(77.8)和MAE(45.0),而且还获得了最高的LLM分数(7.3)。 RMSE和MAE评估了轨迹的几何精度,而LLM得分评估了轨迹的合理性和语义水平。这种多维评估可确保生成的轨迹不仅是NU实际上是精确的,但也可以在实际操作中执行。最有趣的是,测试的结果是了解3D空间的能力。在Open6DOR位置参考点上,Incorporated R1的RGB-D版本达到了90.2%的一般成功率,约93.0%的SOFAR模型专门为此任务设计。考虑到Incorporated R1是一个通用模型,而不是特殊的3D定位模型,这一成就证明了其强大的适应性。但是,研究人员还坦率地指出,在复杂关系的1级测试中,RGB-D版本的工作原理略低于纯2D版本。 6。零样本概括:看不到任务的令人惊讶的性能。授权R1的真正令人震惊的功能反映在再生零样品中。零样品的概括与创造北极到达时从未正常生活的人一样困难第一次,但是在这方面的化身R1显示出令人惊讶的能力。在尝试SimpleNV仿真环境时,此环境是参与所有参与测试模型的环境。这对我们来说是全新的,并且没有模型在培训期间看到这些场景和特定任务。该测试由四个不同的行为任务组成。将汤匙放在毛巾中,将胡萝卜放在盘子上,将绿色块堆放在黄色的块中,然后将茄子放在黄色的篮子里。 在这项测试中,affoled-r1的平均成功率为56.2%。这不仅超过了所有其他VLA容量模型,而且还超过了某些针对特定任务的调整模型。例如,在“将绿色块堆放成黄色块”的任务中,Estarted-R1达到了36.1%的成功率,许多特殊模型在此任务中完全失败。更令人印象深刻的是它们是suc拖动的CESS费率,并证明Incorporated R1在大多数任务中达到了80%或以上的成功率,这使您可以精确地理解和找到目标对象。实际测试可以更好地反映掺入R1的实际价值。研究团队设计了八个不同的桌面操纵任务。这些任务的特定对象,方案和要求不会出现在培训数据中,并且被完全视为外部概括测试。在试用环境中,我们使用XARM 6机器人以及一个真实的intelsense激光雷达相机,使用第三人称视角和图像分辨率DE 640 x 480。这八个任务涵盖了各种操作的复杂性和推理要求。简单的任务,例如“收集草莓”,主要尝试对物体的基本识别和征税功能。中等稀缺的任务,例如“在碗中移动鸡蛋”和“在红篮中移动夹子”需要两个操作阶段:抓取和放置。复杂的任务,例如“收集牙刷并将其放在篮子里”,需要基于随机指定的颜色识别对象,并且“将最接近的对象移至抽屉右侧”需要推断空间关系。最具挑战性的任务是“将驾驶员在抽屉和花瓶之间放置”和“将MOCA锅移到抽屉的右侧”。这些任务不仅需要管理不规则形状的对象,而且还需要精确的空间推理和路线计划。驾驶员和Moka船是严格的对象,这使得更难选择抓地点和控制强度。令人惊讶的是,与参考模型Robopoint相比,Incorporated R1在这些现实世界任务中的平均成功率为87.5%,提高了60%以上,而FSD为12.5%,FSD 25.0%。特别是,Incorporated R1达到了100%的成功率,“将最接近TH右边的物体移动e抽屉“在最具挑战性的空间推理任务中,而基线模型完全失败了。研究人员还测试了模型对视觉干扰的鲁棒性。他们选择了任务“将最接近的对象移动到抽屉右边的对象”,并引入了视觉干扰,引入了背景变化,诸如较高的挑战 +挑战的范围。 R1的成立率为83%。对任务和人类专家的计划的分析与专家类似。 R1想法面对“将Moka Pot移到抽屉右侧”的任务时,此过程显示出明确的逻辑结构。首先,分析需要商定的对象。 “您必须先抓住手柄,然后将其从底座上抬起。”这显示了对结构以及Moka Pot如何抓住的理解。接下来,我们分析目标的位置:“抽屉在Ethe Desk,更多的向后,靠近墙壁”,空间关系是一种精确的理解。最后,我们计划了一种实施策略。“必须仔细地将其从目前的位置仔细移至抽屉的右侧,避免障碍物。“玻璃和重物旁边的自由空间”,Incorporated R1显示了精致的空间分析能力。这种推理过程。此推理过程“此推理过程”在玻璃旁边的自由空间中,必须考虑到重物的左侧,在重物的左侧,设计的物体上的物体上的对象必须考虑到重物的左侧。e表。玻璃放在桌子上,右侧有两个权重。自由空间必须是这些对象之间的区域。 “这种方法逐步的空间分析与人类专家的思考和感兴趣的方式非常相似。研究团队通过比较实验确认了这种推理能力的重要性。它们比较了在同一任务(推理能力)中,与更重要的模型相比,使用增强学习(推理能力)培训的模型(推理能力)的模型(推理能力)在同一任务(推理能力上)的重要性(推断能力)。面对新情况的更强适应性。它在碗里,最后将蓝色芯片袋放在碗中。设计的模型经常是僵化的,并不灵活地通过奖励正确的推理过程来开发更自然和灵活的思维模型。SS。这些显然是技术设计的选择被认为是深处的,并共同保证了出色的模型性能。 Multitasy Hybrid Training是最重要的创新之一。传统的培训方法通常会单独培训每个任务的模型,但是这种方法浪费资源并且无法实现知识交换。研究人员设计了一种智能的混合培训策略,其中包括每个培训批次中不同任务的样本,从而使模型可以同时学习多个技能。该方法的这一任务是如何确保以平衡的方式对不同的任务进行培训。强化学习倾向于优化容易发生奖励的任务,因此简单的任务可以控制培训过程,并且对Compelejos的任务不足来解决此问题,研究团队为每个任务设计了一个特殊的奖励功能,并将所有奖励归一化为0-1范围,以确保不同任务的重要性具有平衡。 desi奖励功能的GN反映了对任务特征研究团队的详细理解。格式奖励模型的输出确保其符合所需的结构。这对于随后的自动化很重要。精确奖励直接评估答案的精度,但仅适用于具有标准答案的任务。为了指示任务,我们验证点的奖励的守时位置是否落在目标区域内,并且距离奖励提供了更详细的指南信号,这有助于该模型逐渐优化信号传导的准确性。特别提到的是视觉体验任务的奖励设计。研究人员发现,如果奖励只是基于轨迹的相似性,模型就学会了快速“欺骗”。您可以获得良好的相似性分数,但完全失去了轨迹计划的重要性。要解决这个问题,他们必须为奖励功能增加点限制离子并准确向模型发出8分。否则,所有奖励将为零。这种简单的限制是Modeloy的“懒惰”可以正确阻止操作,并确保生成的轨迹具有实际的操作指导价值。培训数据的构建也反映了创新思维。传统的机器人学习通常使用“回答问题”的权利,这种方法并不是由于信号任务的多重解决方案而不是理想的。响应响应属性。无碰撞的执行路线。完整的运动轨道。设计反映了系统的灵活性。在真实应用程序中,用户可以根据任务和硬件配置的特征选择最合适的执行方法。对于简单的选择和放置任务,负担得起的针织分支通常足够有效。对于需要规划复杂路线的任务,视觉轨迹分支提供了更强大的表示功能。系统的鲁棒性系统验证了现实世界环境中的适用性。研究人员专门测试了模型对几种视觉干扰的性能,包括实质性变化,照明变化和观点变化。结果表明,即使同时存在多重干扰,系统仍然可以保持高成功率。这种鲁棒性对于实际实现至关重要,因为实际环境中有条件的变化是不可避免的。更令人印象深刻的是系统的交叉域的概括能力。研究人员在完全不同的模拟环境(Libero和Maniskill)中测试了模型,尽管这些环境的视觉样式和物理特性与培训数据完全不同,但Engodied-R1能够产生合理的运动轨迹。这种能力意味着可能从模拟转移到现实,提供新的想法来解决机器人学习中的SIM2REAL问题。系统实施无关紧要也是一个重要的优势。在获取对象中心路径的表示而不是机器人执行器的轨迹时,系统生成的指令可以应用于各种类型的机器人。一组研究人员在两个武器的机器人机器人上证实了这一点,并且可以正确理解同一视觉轨迹的说明ly并以不同的机器人形式执行。为了方便实施,30亿个参数模型量表可以在相对普通的硬件中执行系统。尽管培训需要GPU组速度的性能,但推理阶段的计算要求相对温和,提供了实际系统的可能性。 10。当前系统主要处理单步说明,其处理长期订单任务的能力有限。例如,复杂的任务,例如“餐食的准备”,必须分解多种物质,并且可以给予每种物质。研究人员认为,可以通过层次结构解决此问题。高级规划师负责在简单的子插曲中打破复杂的任务,并且Incompared R1充当管理每个特定子Tarte的可执行模块。此层方法不仅为单步任务中完全合并的R1游戏提供了好处,而且还提供了LSO扩展以应用场景更复杂。尽管在许多任务中执行了“指向”表达方法,但它仍然存在需要精确力控制的任务的局限性。例如,诸如台式计算机,螺钉和易于变形的对象处理之类的任务需要更多的信息,而不是简单方向。研究人员建议将高级“点”指令与学习下游策略相结合,以允许策略网络以复杂的动态行为翻译位置指令。这种组合不仅保持了“瞄准”表达的简单性和多功能性,而且还扩展了系统的功能限制。 3D信息的融合仍处于早期阶段。该模型的RGB-D版本适用于大多数任务,但是在关系中,可以进行性能退化是复杂的。研究人员认为,对信息的深入了解可能会导致HAL有利可图,需要更复杂的培训策略和数据处理方法。未来的工作将集中于如何更好地整合多模式信息,尤其是如何更好地理解模型和使用3D空间信息。与学习策略集成是另一个重要的发展管理。尽管当前的系统主要用于经典运动计划者,但学习策略在治疗动态环境和复杂互动方面具有自己的优势。 R1的高级推理能力与学习策略的动态适应性结合在一起的有机组合是一个值得详细探讨的问题。编译和标签数据的自动化也是将来必须解决的问题。尽管当前的数据集已经非常丰富,但对机器人学习的数据需求却很大。使用模拟环境,自我监控学习和其他方法自动生成高的方式质量培训数据将直接影响系统的改进。在安全性和解释性方面,Incorpated R1具有一定的推理,但是仍然需要采用更完整的安全保证机制来实施。如何确保面对意外情况下机器人是安全的,以及如何使用户更好地理解和信任机器人的决策过程是必须在现实世界过程中解决的重要问题。通常,Incorporated R1代表了机器人智能领域的重大进步。它不仅可以在技术方面取得多种进步,而且更重要的是,它将为机器人系统的未来设计提供新的想法。通过简单而强大的中间表示“瞄准”,该系统成功地将高级理解与基础执行联系起来,为真正智能和通用机器人建立了坚实的基础。与连续的小鬼在技​​术方面的持续发展和持续扩展应用程序方案时,有理由相信,由Incorporated R1代表的技术路线将在未来的机器人技术革命中发挥重要作用。 P AQ1:什么是Incorpated-R1?我可以解决什么问题?答:体现R1是由天津大学开发的智能机器人系统,专门从事“理解,但不能能够“机器人问题”。通过创新的“点”技术,机器人可以首先理解场景,为什么要精确地指出重要的位置,然后指出操作,以指导他们的操作,使他们能够成功地进行理解和差异? “点”技术类似于包括四个基本技能的机器人的通用手语。运动轨迹。最特别的是,它与任何特定的机器人无关。所有机器人都可以理解这些指令和信号操作包含许多操作信息。答:表现很好。最先进的水平是在11项标准化测试中实现的,更重要的是,在完全未知的环境中证明了强大的适应性。仿真环境中的成功率为56.2%,真正的机器人任务的成功率为87.5%,其他系统的成功率为62%,新任务不需要特殊培训。
特殊声明:先前的内容(包括照片和视频(如果有),如有)已由网络自我媒体平台的用户收费和发布。该平台仅提供信息存储服务。
注意:以前的内容(如果您有照片或视频)将由社交媒体平台NetEase Hao的用户收取和发布,仅提供Infor合作存储服务。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注