PRODUCT CENTER
产品中心
联系我们
销售热线:
Contact Hotline
0411-81761733 13795135256
传真:0411-81761733

E-mail:dutduyu@foxmail.com

公司地址:辽宁省大连市高新园区亿阳路6号三丰大厦C座1104室
双臂协作机器人教学科研平台
 
  大连大华中天科技有限公司的双臂协作机器人教学科研平台是一款搭载2个UR机器人及视觉系统的智能教学科研平台,具有灵活、耐久、精确度高等特点,且具有出色的协同性能。
 
  本平台可选用UR3或UR5机器人:UR3作为UR系列中的最小产品,UR3桌面机器人是需要绝对精确度的轻型装配任务和工作的理想选择,UR3的所有腕关节都可以360度旋转,第六轴可以无限旋转,是当前市场中最具有灵活性、多功能性和协作性的机器人;UR5比UR3略大,非常适合于低重量处理任务(如取放和测试)的自动化,中等尺寸的UR5机器人易于编程,可快速安装,综合使用成本低。
 
  双臂协作机器人教学科研平台利用UR系列机器人关节灵活、占用空间小的特点,开发双臂配合的教学与科研应用,双臂运行共享工作空间,利用通信协调双臂动作的顺序,运行过程精准有序、灵活高效。同时,UR机器人搭载视觉系统,用于位置杂乱零件的精确拾取,仅需将零件简单摆放,视觉系统便能判断出零件的种类和位置,通过socket把信息传递给机器人,机器人便可完成定位拾取,有效节约成本,提高机器的工作效率。
 
  双臂协作机器人教学科研平台
 
  双臂协作机器人教学科研平台具有以下功能特点:
 
  ·集成控制系统
 
  支持Windows/Linux操作平台,集成封装机械臂及多种传感器控制软件,支持多种编程语言及模块化编程,便于用户学习和二次开发;
 
  ·协作性与安全性高
 
  UR机器人是人机协作机器人领域的全球领跑者,能够确保最高的安全性,无需使用围栏,柔性化控制,安全可靠;
 
  ·扩展性强
 
  提供ROS/Python/C++SDK,支持RS-232/Ethernet通信,包含视觉识别抓取、双臂协作等多种应用案例;
 
  ·编程简单
 
  支持ROS框架,丰富的开源功能包,帮助用户快速上手机器人的使用和开发;借助直观的3D视图专利技术,无编程经验的用户可快速地对UR机器人进行编程。
 
  ·配套课程
 
  配有ROS入门、机械臂运动规划、视觉识别、双臂协作抓取等相关课题,通过理论知识、仿真实验及实践验证相结合,快速掌握智能机器人理论知识与开发实践。
 
  二、双臂协作机器人教学科研平台组成
 
  双臂协作机器人教学科研平台由2个6自由度轻量机械臂、末端执行器、视觉传感器等构成。
 
UR系列机器人(含控制箱、示教器)
UR3/UR5
 
机械臂
性能参数 UR3 UR5
可重复性 0.03mm 0.03mm
有效负载 3kg 5kg
有效工作半径 500mm 850mm
自由度 6个旋转关节 6个旋转关节
IP等级 IP64 IP54
噪声 <65dB 几乎无噪音
功耗 最低90W,额定150W,最高250W 最低90W,额定150W,最高250W
温度 0-50° 0-50°
占地面积 直径128mm 直径149mm
工作范围/最大速度 基座 ±360°, ±180°/s ±360°, ±180°/s
肩部 ±360°, ±180°/s ±360°, ±180°/s
肘部 ±360°, ±180°/s ±360°, ±180°/s
腕部1 ±360°, ±360°/s ±360°, ±180°/s
腕部2 ±360°, ±360°/s ±360°, ±180°/s
腕部3 无限旋转, ±360°/s ±360°, ±180°/s
重量 11kg 18.4kg
 
控制箱&示教器
控制箱
1)控制箱尺寸:475×423×268mm
2)重量:15kg
3)IP等级:IP20
4)噪声:<65dB
5)输入/输出电源:24V 2A
6)通信标配:TCP/IP 100Mbit, Modbus TCP, Profinet, EthernetIP
7)电源:100-240 VAC,50-60 Hz
示教器
1)IP等级:IP20
2)重量:1.5kg
3)电缆长度:4.5m
末端执行器
Onrobot RG2
  1)最大负载:2kg
2)最大行程:110mm
3)夹持作用力:3-40N
4)夹持速度:38-127 mm/s
5)夹持时间:0.06-0.21s
6)IP等级:IP54
7)操作灵活,可处理多种尺寸和形状的零件。
 
视觉传感器
Kinect 2.0
  1)使用环境:室内
2)深度视场: 水平70°;垂直60°
3)深度相机分辨率、帧率:512 x 424 @ 30 FPS
4)RGB视场(FOV):84.1°×53.8°
5)RGB相机分辨率、帧率:1920 x 1080 @ 30 / 15 FPS(根据环境亮度)
6)接口:USB 3.0
7)通过视觉定位技术,能够实现机械臂精准物品抓取
8)开源SDK,支持opencv、python、pcl、c++等,方便二次开发
 
 
  三、配套课程(总学时:64课时)
 
  1、初识ROS(10课时)
 
  ROS(Robot Operating System)是一个得到广泛使用的机器人系统的软件框架。ROS的基本原理是无需改动就能够在不同的机器人上复用代码。ROS提供了一个标准的操作系统环境,包括硬件抽象、底层设备控制、通用功能的实现、进程间消息转发和功能包管理等。它基于一个集中式拓扑的图结构,在节点中接收许多传感器、控制、状态、规划、执行器数据进行计算处理,并发送。通过ROS,可以使用大量的示例代码和开源程序轻松地完成机器人编程和控制,理解如何使用各种传感器与执行器,为机器人增加新的功能,如自动导航和视觉感知等。
 
  1.1 ROS发展与现状
 
  1.2 ROS安装与环境配置
 
  1.3 ROS通信机制
 
  1.4 ROS话题与服务
 
  1.5 ROS系统仿真
 
  2、6自由度柔性机械臂运动规划与视觉伺服(27课时)
 
  机械臂运动规划解决如何将机械臂移动到期望位置和状态的问题,在使末端执行器到达设定位姿的同时,避免在移动群组是与任何障碍发生碰撞——包括自身连杆或由传感器感知的其他物体,或违反关节约束。运动规划的结果是得到一条使机械臂移动到预定目标位置的轨迹,这条轨迹需要避免碰撞,并且满足关节层速度和加速度的约束条件。MoveIt!是一个被广泛应用的开源软件,提供了一个简单、开放的软件平台,可用于机械臂运动规划领域。
 
  计算机视觉是一门研究如何使机器“看”的科学,具体地说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,用电脑处理时之成为更适合人眼观察或传送给仪器检测的图像的一门学科。而OpenCV(Open Source Computer Vision Library),是一个基于开源发行的跨平台计算机视觉库,它实现了图像处理和计算机视觉方面的很多通用算法,已经成为了计算机视觉领域最有力的研究工具之一。
 
  2.1摄像头内参标定
 
  2.2机器人手眼标定
 
  2.3 opencv基本功能介绍
 
  2.4简单图像处理算法实验
 
  2.5基于模板匹配的识别方法
 
  2.6基于ArUco Marker检测的识别方法
 
  2.7机械臂运动学正反解
 
  2.8典型运动规划算法RRT、RRT*、PRM、RRT-connect等
 
  2.9 Moveit!运动规划包介绍
 
  2.10 Moveit!运动规划包配置
 
  2.11基于Gazebo的机械臂可视化仿真实验
 
  2.12机械臂的视觉伺服抓取实验
 
  3、双臂机器人协同作业(27课时)
 
  双臂协作机器人具有较大的作业范围、较高的运动灵活性和较大的负载能力,但是双臂协调控制技术也异常困难。根据任务的不同双臂之间存在着不同的约束关系,其中涉及双臂系统的运动学建模与标定、双臂协调控制策略、机械臂轨迹规划、机械臂碰撞检测等关键技术。
 
  3.1双臂协作机器人运动学建模
 
  3.2双臂机器人系统仿真环境搭建
 
  3.3双臂机器人碰撞检测
 
  3.4双臂机器人轨迹规划
 
  3.5基于Gazebo的双臂机器人协同作业仿真实验
 
  3.6双臂机器人示教编程
 
  3.7双臂机器人人机协作
 
  3.8双臂机器人协调控制
 
  3.9双臂机器人视觉识别与协同作业实验
 
  四、课程设计案例
 
  1、基于Gazebo的机械臂可视化仿真
 
  Gazebo是一款3D动态模拟器,能够在复杂的室内和室外环境中准确有效地模拟机器人。Gazebo通常用于测试机器人算法和用现实场景进行回归测试。其包含丰富的机器人模型和环境库、各种各样的传感器,并且程序设计方便和具有简单的图形界面。
 
  以“pick and place”为例,建立机械臂操作环境,插入视觉传感器,建立机械臂与视觉传感器的坐标转换关系;利用视觉传感器识别物体并进行分类;引导机械臂抓取和放置。
 
 
  典型pick and place过程
 
  涉及主要知识:
 
  (1)视觉识别
 
  掌握ROS下话题的接收与发布方式,能够熟练编写相关节点程序,实现接收RGB图像、利用opencv图像处理算法识别轮廓、颜色、形状,并发布图像中心、目标轮廓等数据。
 
  搭建不同的仿真环境,基于不同的目标物体,分别采用基于模板匹配的识别方法及基于ArUco Marker检测的识别方法进行识别,并自行探索更为稳定的视觉识别算法,输出视觉坐标系下目标物体的中心位置。
 
  熟悉urdf文件的结构,在仿真环境中插入视觉传感器,即在urdf文件中插入一个link,以建立机械臂与视觉传感器的坐标转换关系,从而将视觉坐标系下的目标物体位置映射到机械臂基坐标系下,实现机械臂末端执行器准确到达目标物体位置。
 
  (2)机械臂运动规划
 
  熟悉应用Moveit!运动规划包,利用它可以完成机械臂的正逆运动学求解、运动路径规划、碰撞检测、模型可视化等。
 
  理解不同运动规划算法的原理,并尝试对其进行改进。move_group节点是Moveit!系统架构中的核心,默认使用OMPL运动规划库。通过MotionPlanning插件,可自行选择运动规划算法,例如RRT(快速扩展随机树法),RRT*,PRM(概率路标图法),RRT-connect,KPIECE等,同时可以在上述算法上进行修改以适应相应的机械臂。
 
  掌握Moveit!中的配置文件和启动文件,例如joint_limits.yaml记录了机器人各个关节的位置、速度及加速度的极限,这些在运动规划中都会用到,kinematics.yaml则是用于运动学求解。MoveIt配置助手则可以通过加载URDF文件来配置机器人运动规划所需要的信息,最终生成完整的Moveit!配置功能包。SRDF是Moveit!中最重要的配置文件,记录了配置助手中设置的各种信息。
 
  熟悉利用C++编程调用move_group的API设定目标位姿和规划方法;掌握在可视化界面中选择规划方式,通过手动拖动可视化界面中的交互标记,将机械臂拖动至目标位姿,点击规划按钮进行规划,点击执行按钮,规划好的路径点信息就被发送下去,Gazebo中的仿真机械臂就会按照规划好的路径点信息进行移动,到达目标位置。
 
  2、基于视觉的双臂协作抓取规划
 
  基于上述视觉识别、机械臂运动规划等技术,在现实环境中进行视觉识别和双臂协作抓取研究。据需求提前打印出marker,并贴在被抓取物体,通过realsense获得图像信息,对marker进行检测,将获取的位姿给到机械臂末端,完成指定任务。
 
 
  双臂协作过程
 
  涉及主要知识:
 
  (1)机器人标定
 
  标定视觉摄像头内外参;
 
  双臂机器人系统标定。
 
  (2)协调控制
 
  双臂协作机器人运动学建模和运动学逆解;
 
  双臂机器人碰撞检测与轨迹规划;
 
  建立机械臂视觉伺服系统,设计不同控制率来控制双臂机器人实现目标物体的抓取操作;
 
  建立双臂机器人协调控制器,根据任务需求对双臂进行位置和力规划,双臂的运动和力规划都是在满足运动和力约束基础上,从对应的被操作物体的运动轨迹推导出来,根据各自的运动轨迹和力要求,进行双臂控制。
关注官方微信
0411-81761733
返回顶部