Cámara Virtual de ReferenciaUna aproximación para el guiado combinado de robots manipuladores mediante una única cámara

  1. J. Pomares 1
  2. G.J. García 1
  3. I. Perea 1
  4. C. Jara 1
  5. F. Torres 1
  1. 1 Universitat d'Alacant
    info

    Universitat d'Alacant

    Alicante, España

    ROR https://ror.org/05t8bcz72

Revista:
Revista iberoamericana de automática e informática industrial ( RIAI )

ISSN: 1697-7920

Año de publicación: 2012

Volumen: 9

Número: 3

Páginas: 314-323

Tipo: Artículo

DOI: 10.1016/J.RIAI.2012.05.004 DIALNET GOOGLE SCHOLAR lock_openAcceso abierto editor

Otras publicaciones en: Revista iberoamericana de automática e informática industrial ( RIAI )

Objetivos de desarrollo sostenible

Resumen

En este artículo se presenta el modelado, diseño y control visual de una estructura articular de 3 grados de libertad que dispone de una cámara en su extremo. Para su guiado se presenta una nueva estrategia de control visual directo que permite realizar el seguimiento de caminos o trayectorias no dependientes del tiempo definidas en el espacio de la imagen. Esta estructura articular a su vez se encuentra fijada al extremo de un robot manipulador Mitsubishi PA-10. Este último robot se desea aplicar a tareas de manipulación en las que no se puede emplear una cámara fija, ya que las necesidades de visualización dependen de la tarea. Para evitar este problema, la estructura articular posiciona la cámara, siguiendo la trayectoria previamente establecida que proporciona una visualización correcta de la tarea. La estrategia de control definida es capaz, no sólo de realizar el guiado de la estructura articular, sino también de guiar al robot manipulador haciendo uso de las características visuales extraídas. Para conseguir esto último se ha definido el concepto de cámara virtual de referencia, que simulando una cámara real ubicada en el extremo del manipulador, permite realizar su guiado mediante un sistema de control visual clásico basado en imagen

Información de financiación

Sin embargo, no sólo el robot COOPER es guiado haciendo uso de la información visual extraída por la cámara de su extremo, sino que también se utiliza esta información para realizar un guiado por control visual del robot manipulador. El control visual combinado de ambos robots constituye otra aportación del artículo. Para conseguir el guiado del robot manipulador no es posible emplear estrategias de control visual clásicas, ya que la posición relativa entre la cámara (ubicada en el extremo de COOPER) y el robot manipulador varía a lo largo de la tarea. Además, la configuración articular del robot COOPER para el aprendizaje de las características deseadas no es relevante, ya que la posición final de agarre en el manipulador podría darse con una configuración final de COOPER diferente. Estos problemas pueden evitarse con el concepto de Cámara Virtual de Referencia (CVR). Esta cámara virtual se emplea para simular la presencia de una cámara en el extremo del robot manipulador, observando unas características virtuales en la escena. De esta manera, el robot principal puede guiarse empleando un sistema de control visual basado en imagen en el que las características extraídas y deseadas son obtenidas mediante la CVR. Para poder aplicar esta aproximación se parte de las premisas de que tanto la cinemática del robot COOPER como el modelo geométrico del objeto observado son conocidos. La definición de CVR propuesta en este artículo permitirá en trabajos futuros que el robot manipulador se guie mediante control visual con una cámara real ubicada en su extremo ante oclusiones temporales. Para ello, sólo en el momento que se produzca la oclusión de alguna de las características extraídas por esta última cámara, se empleará la información visual correspondiente extraída por la cámara del robot COOPER para complementar la información visual perdida y, de esta manera, evitar la oclusión. Para el propósito de este artículo, el robot manipulador será guiado completamente mediante la información visual extraída por el robot COOPER.

Financiadores

Referencias bibliográficas

  • Chaumette, F., Hutchinson, S. 2006. Visual Servo Control, Part I: B Approaches. IEEE Robotics and Automation Magazine, 13 (4), 82-90.
  • Chaumette, F. 1998. Potential problems of stability and convergence in im based and position-based visual servo En: de los editores D. Kriegman, G. Hager, A.S. Morse. The Conflu of Vision and Control. LNCIS Series, Springer-Verlag, 237, 66-78.
  • Chesi, G., Hung, Y. S. 2007. Global path-planning for constrained optimal visual servoing. IEEE Transactions on Robotics, 23, 1050-106
  • Deng, L., Janabi-Sharifi, F., Wilson, W. 2002. Stability and robustness of visual servoing methods. En ICRA ‘02, Washington, DC, USA, 16 1609.
  • Flandin, G., Chaumette, F., Marchand, E. 2000. Eye-in-hand/eye-to-h cooperation for visual servoing. En ICRA’00, San Francisco, CA, USA 2741 – 2746.
  • Gans, N. R., Hutchinson, S. A. 2007. Stable visual servoing through hy switched-system control, IEEE Transactions on Robotics, 23(9), 530-5
  • García, G. J., Jara, C. A., Pomares, J., Torres, F. 2010. Direct visual s control of a robot to track trajectories in supervision tasks. Internati Conference on Control, Automation, Robotics and Vision, Singa Diciembre, 1434-1439.
  • García, G. J., Pomares, J., Torres, F. 2009. Automatic robotic task unstructured environments using an image path tracker. Co Engineering Practice, 17(5), 597-608.
  • Kelly, F., Cervantes, I., Alvarez-Ramirez, J., Bugarin, E., Monroy, C. 2 On Transpose Jacobian Control for Monocular Fixed-Camera 3D D Visual Servoing. Robot Manipulators, M. Ceccarelli Ed., InTech, 243-
  • López-Nicolás, G., Guerrero, J. J., Sagüés, 2010. C. Visual control of veh using two-view geometry. Mechatronics, 20, 315–325.
  • Miyazaki, F. y Masutani, Y. 1990. Robustness of sensory feedback co based on imperfect Jacobian. en Proceedings of the fifth internati symposium on Robotics research, 201-208.
  • Pomares, J., Candelas, F. A., Torres, F., Corrales, J. A., Garcia, G. J. 2 Safe Human-Robot Cooperation Based on an Adaptive Time-Indepen Image Path Tracker. International Journal of Innovative Compu Information and Control, 6 (9), 3819–3842.
  • Pomares, P., Corrales, J. A., Garcia, G. J., Torres, F. 2011. Direct V Servoing to Track Trajectories in Human-Robot Cooperation. Internati Journal of Advanced Robotic Systems, 8 (4), 129–138.
  • Sciavicco, L.; Siciliano, B.; Sciavicco, B., 2000. Modelling and contro robot manipulator. Springer-Verlag: London, United Kingdom, pp. 402
  • Soria, C., Roberti, F., Carelli, R., Sebastian, J. M. (2008) Control Se Visual de un Robot Manipulador Planar Basado en Pasividad. Re Iberoamericana de Automática e Informática Industrial, 5 (4). 54 - 61.
  • Takegaki, M., y Arimoto, S. 1981. A New Feedback Method for Dyna Control of Manipulators, J. of Dyn. Syst., Meas., and Control, 103 119-125.
  • Vahrenkamp, N., Wieland, S., Azad, P., Gonzalez, D., Asfour, T., Dillm R. 2008. Visual servoing for humanoid grasping and manipulation ta IEEE-RAS International Conference In Humanoid Robots, 406-412.
  • Walker, M. W., Orin, D. E. 1982. Efficient dynamic computer simulatio robotic mechanisms. ASME Journal of Dynamic Systems, Measurem and Control, 104, 205–211.
  • Wen-Chung, C., Chia-Kai, S. 2010. Hybrid eye-to-hand and eye-in-h visual servoing for autonomous robotic manipulation. SICE An Conference, Taipei, 415-422.