“原来机器手还能干这些精细活儿!”
一只触觉夹爪
拿起豆腐、薯片、果冻等易碎品
根据其纹理、软硬和摩擦特性
精准摆出各种造型
近日
由复旦大学可信具身智能研究院
团队自主研发的高精度、低成本
“自适应视触觉AI传感器”
在2025世界人工智能大会(WAIC) 上
首次公开亮相
此次复旦团队这一成果,作为唯一的高校代表,亮相镇馆之宝-“WAIC里机器人技能大舞台”中央展区, 为构建面向精细化操作的下一代具身智能大模型提供关键技术支撑,让人形机器人离人类生活更进一步。
皮肤是人类最大的器官,具备对力的多维感知能力,可看成是天然的多维力学信息采集终端。正是凭借多维感知能力,当人类需要做一些灵活的操作时,便根据触觉反馈、交互时力的变化来调整操作精度。随着“视触觉技术”的出现, 正在让机器人拥有触觉成为可能,攻克精细操作“最后一公里”。
当前,国内的具身机器人研发已有较完善的视觉通道,但在具身智能的触觉技术仍较为欠缺。如何让冰冷坚硬的机器人拥有人类的触觉?这一科研难题,在复旦大学可信具身智能研究院团队的“自适应视触觉AI传感器”科研中取得了突破性进展。
团队研发的传感器具备柔性、灵敏、“触觉神经”、多维力学探测等特点,还有一套融合了视觉感知与AI算法的创新系统。抓取物品时,它的柔软界面如同人类皮肤般,能适应适应复杂表面,会自然贴合物体形状,不会像刚性爪那样压坏脆弱物品。同时,它可感知多维受力,包括正压力、切向力,甚至扭转力, 能灵巧、安全地与外界交互。
“我们想要机器人不仅能感受到单一的传统压力, 而且还能具备类人皮肤的感知,能感知压力、剪切、扭转、滑移等各种复杂力学交互信息。” 复旦大学可信具身智能研究院研究员陈文明介绍,以往,以压力信号为指标的传感技术是单一的感官通道,而下一代具身机器人要突破操作能力瓶颈, 必须具备类似人体皮肤的多维触觉感知能力。
陈文明介绍,人类指尖皮肤的最小感知阈值大概在0.1牛到0.2牛之间。相比之下,团队研发的“自适应视触觉AI传感器”的感知灵敏极限已达到人体的10倍。
目前,要让具身机器人走进千家万户仍存在诸多挑战。项目团队带头人、复旦大学副校长姜育刚认为,具身机器人要面对的是多样化的工作环境,需要既能在预先学习过的环境里做好工作,也能在不确定性的未知环境里完成任务。
此次发布的高精度、低成本的视触觉传感器, 可支持训练融合触觉等多模态信息的机器人大脑,进而助力实现可完成精细化操作的下一代具身智能技术。“明年给大家看的就不是抓豆腐和果冻了,而是一些更有挑战性的任务。” 姜育刚说。
下一步,团队计划对“自适应视触觉AI传感器”进行市场化,同时开展视触觉融合的大模型训练, 去解决行业内更有挑战性的问题。该技术应用前景包括搭载触觉技术的机械夹爪精准抓取易损物品、工业制造领域中高精度分拣与精密装配、辅助医疗领域完成微创手术等。该技术还可以和假肢相结合,研制出具备触觉感知能力的先进智能假肢。
今年初,复旦大学可信具身智能研究院成立。“我们希望研发具有自主探索能力、持续进化特性且符合人类价值观的具身智能体,为未来人机协同与智能社会建设提供核心驱动力。”姜育刚说。
来源:上海杨浦