Digitální knihovna UPCE přechází na novou verzi. Omluvte prosím případné komplikace. / The UPCE Digital Library is migrating to a new version. We apologize for any inconvenience.

Publikace:
Comparison of Floating-point Representations for the Efficient Implementation of Machine Learning Algorithms

Konferenční objektopen accesspeer-reviewedpostprint (accepted version)
dc.contributor.authorMishra, Saras Mani
dc.contributor.authorTiwari, Ankita
dc.contributor.authorShekhawat, Hanumant Singh
dc.contributor.authorGuha, Prithwijit
dc.contributor.authorTrivedi, Gaurav
dc.contributor.authorPidanič, Jan
dc.contributor.authorNěmec, Zdeněk
dc.date.accessioned2023-07-12T13:19:08Z
dc.date.available2023-07-12T13:19:08Z
dc.date.issued2022
dc.description.abstractSmart systems are enabled by artificial intelligence (AI), which is realized using machine learning (ML) techniques. ML algorithms are implemented in the hardware using fixedpoint, integer, and floating-point representations. The performance of hardware implementation gets impacted due to very small or large values because of their limited word size. To overcome this limitation, various floating-point representations are employed, such as IEEE754, posit, bfloat16 etc. Moreover, for the efficient implementation of ML algorithms, one of the most intuitive solutions is to use a suitable number system. As we know, multiply and add (MAC), divider and square root units are the most common building blocks of various ML algorithms. Therefore, in this paper, we present a comparative study of hardware implementations of these units based on bfloat16 and posit number representations. It is observed that posit based implementations perform 1.50x better in terms of accuracy, but consume 1.51x more hardware resources as compared to bfloat16 based realizations. Thus, as per the trade-off between accuracy and resource utilization, it can be stated that the bfloat16 number representation may be preferred over other existing number representations in the hardware implementations of ML algorithms.eng
dc.description.abstract-translatedInteligentní systémy jsou umožněny umělou inteligencí (AI), která je realizována pomocí technik strojového učení (ML). Algoritmy ML jsou implementovány v hardwaru s využitím reprezentace s pevnou řádovou čárkou, celými čísly a plovoucí řádovou čárkou. Výkonnost hardwarové implementace je ovlivněna velmi malými nebo velkými hodnotami kvůli jejich omezené velikosti slova. K překonání tohoto omezení se používají různé reprezentace s plovoucí desetinnou čárkou, například IEEE754, posit, bfloat16 atd. Navíc pro efektivní implementaci ML algoritmů je jedním z nejintuitivnějších řešení použití vhodné číselné soustavy. Jak víme, nejběžnějšími stavebními prvky různých ML algoritmů jsou jednotky pro násobení a sčítání (MAC), dělička a odmocnina. V tomto článku proto předkládáme srovnávací studii hardwarových implementací těchto jednotek založených na reprezentaci čísel bfloat16 a posit. Bylo zjištěno, že implementace založené na posit mají 1,50x lepší výkon z hlediska přesnosti, ale spotřebují 1,51x více hardwarových prostředků ve srovnání s realizacemi založenými na bfloat16. Z hlediska kompromisu mezi přesností a využitím zdrojů lze tedy konstatovat, že v hardwarových implementacích ML algoritmů lze upřednostnit reprezentaci čísel bfloat16 před ostatními existujícími reprezentacemi čísel.cze
dc.event32nd International Conference on Radioelectronics (RADIOELECTRONICS) (21.04.2022 - 22.04.2022, Kosice)eng
dc.formatp. 191-196eng
dc.identifier.doi10.1109/RADIOELEKTRONIKA54537.2022.9764927
dc.identifier.isbn978-1-72818-686-3
dc.identifier.obd39888119
dc.identifier.scopus2-s2.0-85130153966
dc.identifier.urihttps://hdl.handle.net/10195/81287
dc.identifier.wos000856002200040
dc.language.isoeng
dc.peerreviewedyeseng
dc.project.IDLTAIN19100/Vývoj bezkontaktní technologie pro inteligentní ochranu zájmových prostorcze
dc.publicationstatuspostprint (accepted version)eng
dc.publisherIEEEeng
dc.relation.ispartof2022 32ND INTERNATIONAL CONFERENCE RADIOELEKTRONIKA (RADIOELEKTRONIKA)eng
dc.relation.publisherversionhttps://ieeexplore.ieee.org/document/9764927/
dc.rightsopen access (green)eng
dc.subjectfloating-point representationseng
dc.subjectdeep learningeng
dc.subjectpositeng
dc.subjecttrainingeng
dc.subjectreprezentace s plovoucí desetinnou čárkoucze
dc.subjecthluboké učenícze
dc.subjectpozicecze
dc.subjecttréninkcze
dc.titleComparison of Floating-point Representations for the Efficient Implementation of Machine Learning Algorithmseng
dc.title.alternativeSrovnání reprezentací v plovoucí desetinné čárce pro efektivní implementaci algoritmů strojového učenícze
dc.typeConferenceObjecteng
dspace.entity.typePublication

Soubory

Původní svazek

Nyní se zobrazuje 1 - 1 z 1
Načítá se...
Náhled
Název:
Comparison_of_Floating-point_Representations_for_the_Efficient_Implementation_of_Machine_Learning_Algorithms.pdf
Velikost:
1.28 MB
Formát:
Adobe Portable Document Format
Popis: