IBM



IBM opfinder ny GPU-metode til maskinlæring

Via TechSpot - , indsendt af modgaard

IBM har skabt en ny metode til at arbejde med store datasæt, der skal bruges til at træne maskinlærigs-algoritmer. Algoritmen hedder Duality-gap based Heterogeneous Learning (DuHL) og er i stand til gennemgå 30GB pr. minut, hvilket er 10 gange bedre end tidligere metoder.

GPU’er kan normalt ikke bruges til vise simuleringer af maskinlærings-modeller på grund af deres begrænsede hukommelse. Det problem kan løses ved at flytte data i små bider, men det er en dyr løsning at flytte så mange data frem og tilbage fra GPU’en.

IBM’s nye algoritme løser dette problem ved at finde den mindre mængde data, der er mest vigtig for trænings-algoritmen. Derfor kunne IBM teste algoritmen på en Nvidia Quadro M4000 med 8GB GDDR5 hukommelse og opnå mange gange hurtigere maskinlæring.





Gå til bund
Gravatar

#1 CBM 6. dec. 2017 09:07

IBM er generelt gode til den ædle disciplin kendt som algoritme design
#ComeToTheDuckSide www.duckduckgo.com, BB Priv because REAL QWERTY is a privilege, ASUS = kvalitet! #BringBackTheKeyboard.
Gravatar

#2 kblood 7. dec. 2017 04:17

Ja, det er lyder interessant. Måske specielt for mig siden jeg har et GTX 1080. Det bliver nok bare nød til at kunne fungere med Tensorflow eller sådan noget før jeg kommer til at bruge det. Jeg bruger ikke deres IBM Watson rigtigt.
Gå til top

Opret dig som bruger i dag

Det er gratis, og du binder dig ikke til noget.

Når du er oprettet som bruger, får du adgang til en lang række af sidens andre muligheder, såsom at udforme siden efter eget ønske og deltage i diskussionerne.

Opret Bruger Login