Memory Efficient Grasping Point Detection of Nontrivial Objects

Zobrazit minimální záznam

dc.contributor.author Doležel, Petr
dc.contributor.author Štursa, Dominik
dc.contributor.author Kopecký, Dušan
dc.contributor.author Jecha, Jiří
dc.date.accessioned 2022-06-03T12:15:42Z
dc.date.available 2022-06-03T12:15:42Z
dc.date.issued 2021
dc.identifier.issn 2169-3536
dc.identifier.uri https://hdl.handle.net/10195/79110
dc.description.abstract Robotic manipulation with a nontrivial object providing various types of grasping points is of an industrial interest. Here, an efficient method of simultaneous detection of the grasping points is proposed. Specifically, two different 3 degree-of-freedom end effectors are considered for simultaneous grasping. The method utilizes an RGB data-driven perception system based on a specifically designed fully convolutional neural network called attention squeeze parallel U-Net (ASP U-Net). ASP U-Net detects grasping points based on a single RGB image. This image is transformed into a schematic grayscale frame, where the positions and poses of the grasping points are coded into gradient geometric shapes. In order to approve the ASP U-Net architecture, its performance was compared with nine competitive architectures using metrics based on generalized intersection over union and mean absolute error. The results indicate its outstanding accuracy and response time. ASP U-Net is also computationally efficient enough. With a more than acceptable memory size (77 MB), the architecture can be implemented using custom single-board computers. Here, its capabilities were tested and evaluated on the NVIDIA Jetson NANO platform. eng
dc.format p. 82130-82145 eng
dc.language.iso eng
dc.publisher IEEE (Institute of Electrical and Electronics Engineers) eng
dc.relation.ispartof IEEE ACCESS, volume 2021, issue: 9 eng
dc.rights open access eng
dc.rights.uri https://creativecommons.org/licenses/by/4.0/
dc.subject grasping eng
dc.subject service robots eng
dc.subject end effectors eng
dc.subject grippers eng
dc.subject three-dimensional displays eng
dc.subject convolutional neural networks eng
dc.subject computer architecture eng
dc.subject robotic grasping eng
dc.subject grasping point detection eng
dc.subject machine vision eng
dc.subject deep learning eng
dc.subject convolutional neural network eng
dc.subject uchopování cze
dc.subject servisní roboty cze
dc.subject koncové efektory cze
dc.subject chapadla cze
dc.subject trojrozměrné displeje cze
dc.subject konvoluční neuronové sítě cze
dc.subject počítačová architektura cze
dc.subject robotické uchopování cze
dc.subject detekce bodu uchopení cze
dc.subject strojové vidění cze
dc.subject hluboké učení cze
dc.subject konvoluční neuronová síť cze
dc.title Memory Efficient Grasping Point Detection of Nontrivial Objects eng
dc.title.alternative Paměťově efektivní detekce uchopovacích bodů netriviálních objektů cze
dc.type article eng
dc.description.abstract-translated Robotická manipulace s netriviálním objektem poskytujícím různé typy úchopových bodů je předmětem průmyslového zájmu. Zde je navržena účinná metoda současné detekce úchopových bodů. Konkrétně se uvažují dva různé koncové efektory se třemi stupni volnosti pro současné uchopení. Metoda využívá systém vnímání řízený daty RGB založený na speciálně navržené plně konvoluční neuronové síti nazvané attention squeeze parallel U-Net (ASP U-Net). ASP U-Net detekuje body uchopení na základě jediného obrazu RGB. Tento obraz je transformován do schematického snímku ve stupních šedi, kde jsou polohy a pozice uchopovacích bodů zakódovány do gradientních geometrických tvarů. Za účelem schválení architektury ASP U-Net byla její výkonnost porovnána s devíti konkurenčními architekturami pomocí metrik založených na zobecněném průniku přes sjednocení a střední absolutní chybě. Výsledky ukazují na její vynikající přesnost a dobu odezvy. ASP U-Net je také dostatečně výpočetně efektivní. Díky více než přijatelné velikosti paměti (77 MB) lze architekturu implementovat pomocí vlastních jednodeskových počítačů. Zde byly její schopnosti testovány a vyhodnoceny na platformě NVIDIA Jetson NANO. cze
dc.peerreviewed yes eng
dc.publicationstatus published version eng
dc.identifier.doi 10.1109/ACCESS.2021.3086417
dc.relation.publisherversion https://ieeexplore.ieee.org/document/9446869
dc.rights.licence CC BY 4.0
dc.project.ID EF17_049/0008394/Spolupráce Univerzity Pardubice a aplikační sféry v aplikačně orientovaném výzkumu lokačních, detekčních a simulačních systémů pro dopravní a přepravní procesy (PosiTrans) cze
dc.identifier.wos 000673965700001
dc.identifier.scopus 2-s2.0-85107372074
dc.identifier.obd 39887039


Tento záznam se objevuje v následujících kolekcích

Zobrazit minimální záznam

open access Kromě případů, kde je uvedeno jinak, licence tohoto záznamu je open access

Vyhledávání


Rozšířené hledání

Procházet

Můj účet