Digitální knihovna UPCE přechází na novou verzi. Omluvte prosím případné komplikace. / The UPCE Digital Library is migrating to a new version. We apologize for any inconvenience.

Publikace:
Grasping Point Detection Using Monocular Camera Image Processing and Knowledge of Center of Gravity

Konferenční objektopen accesspeer-reviewedpostprint (accepted version)
dc.contributor.authorŠtursa, Dominik
dc.contributor.authorDoležel, Petr
dc.contributor.authorHonc, Daniel
dc.date.accessioned2023-07-12T13:17:50Z
dc.date.available2023-07-12T13:17:50Z
dc.date.issued2022
dc.description.abstractThe ability to grasp objects is one of the basic functions of modern industrial robots. In this article, the focus is placed on a system for processing the image provided by a robot visual perception system leading to the detection of objects grasping points. The proposed processing system is based on a multi-step method using convolutional neural networks (CNN). The first step is to use the first CNN to transform the input image into a schematic image with labeled objects centers of gravity, which then serves as a supporting input to the second CNN. In this second CNN, original input and supporting input images are used to obtain a schematic image containing the grasping points of the objects. This solution is further compared with a network providing grasping points directly from the input image. As a result, the proposed method provided a 0.7% improvement in the average intersection over union for all of the models.eng
dc.description.abstract-translatedSchopnost uchopovat předměty je jednou ze základních funkcí moderních průmyslových robotů. V tomto článku se zaměříme na systém zpracování obrazu poskytovaného systémem vizuálního vnímání robota, který vede k detekci bodů pro uchopení předmětů. Navrhovaný systém zpracování je založen na vícekrokové metodě využívající konvoluční neuronové sítě (CNN). Prvním krokem je použití první CNN k transformaci vstupního obrazu na schematický obraz s označenými těžišti objektů, který pak slouží jako podpůrný vstup pro druhou CNN. V této druhé CNN se původní vstupní a podpůrné vstupní obrazy použijí k získání schematického obrazu obsahujícího úchopové body objektů. Toto řešení je porovnáváno se sítí poskytující uchopovací body přímo ze vstupního obrazu. Výsledkem je, že navrhovaná metoda poskytla u všech modelů zlepšení přesnosti o 0,7 % na testovací množině.cze
dc.event11th Computer Science On-line Conference, CSOC 2022 (26.04.2022 - 26.04.2022, ONLINE, CZ)eng
dc.formatp. 531-541eng
dc.identifier.doi10.1007/978-3-031-09076-9_48
dc.identifier.isbn978-3-031-09075-2
dc.identifier.issn2367-3370
dc.identifier.obd39888073
dc.identifier.urihttps://hdl.handle.net/10195/81268
dc.identifier.wos000893642100048
dc.language.isoeng
dc.peerreviewedyeseng
dc.project.IDEF17_049/0008394/Spolupráce Univerzity Pardubice a aplikační sféry v aplikačně orientovaném výzkumu lokačních, detekčních a simulačních systémů pro dopravní a přepravní procesy (PosiTrans)cze
dc.publicationstatuspostprint (accepted version)eng
dc.publisherSpringer Nature Switzerland AGeng
dc.relation.ispartofArtificial Intelligence Trends in Systems : proceedings of 11th Computer science on-line conference 2022, Vol. 2eng
dc.relation.publisherversionhttps://link.springer.com/chapter/10.1007/978-3-031-09076-9_48
dc.rightsopen access (green)eng
dc.subjectimage processingeng
dc.subjectgrasping point detectioneng
dc.subjectconvolutional neural networkeng
dc.subjectcenter of gravityeng
dc.titleGrasping Point Detection Using Monocular Camera Image Processing and Knowledge of Center of Gravityeng
dc.title.alternativeDetekce úchopového bodu pomocí zpracování obrazu z monokulární kamery a znalosti těžištěcze
dc.typeConferenceObjecteng
dspace.entity.typePublication

Soubory

Původní svazek

Nyní se zobrazuje 1 - 1 z 1
Načítá se...
Náhled
Název:
author.pdf
Velikost:
1.8 MB
Formát:
Adobe Portable Document Format