Ent­wick­ler-Frame­works für Ma­chi­ne Le­arning (ML)

Computerwoche - - Technik -

Apa­che Spark ML­lib: Frü­her als Teil des Ha­doop-Uni­ver­sums be­kannt, ist Apa­che Spark mitt­ler­wei­le ein be­kann­tes Ma­chi­ne-Le­arning-Frame­work. Sein um­fang­rei­ches An­ge­bot an Al­go­rith­men wird stän­dig über­ar­bei­tet und er­wei­tert.

Apa­che Sin­ga, seit Kur­zem Teil des Apa­che In­cu­ba­tor, ist ein Open-Sour­ce-Frame­work, das Deep-Le­arning-Mecha­nis­men auf gro­ße Da­ten­vo­lu­men hin „trai­nie­ren“soll. Sin­ga stellt ein sim­ples Pro­gram­mier­mo­dell für Deep-Le­arning-Net­ze be­reit und un­ter­stützt da­bei di­ver­se Ent­wick­lungs­rou­ti­nen.

Caf­fe um­fasst ein gan­zes Set an frei ver­füg­ba­ren Re­fe­renz­mo­del­len für gän­gi­ge Klas­si­fi­zie­rungs­rou­ti­nen; die ge­wach­se­ne Caf­fe-Com­mu­ni­ty steu­ert wei­te­re Mo­del­le bei. Caf­fe un­ter­stützt die Nvi­dia-Pro­gram­mier­tech­nik CUDA, mit der Pro­gramm­tei­le wahl­wei­se auch durch den Gra­fik­pro­zes­sor (GPU) ab­ge­ar­bei­tet wer­den kön­nen.

Mi­cro­soft Azu­re ML Stu­dio: Weil die Cloud al­so die idea­le Um­ge­bung für ML-An­wen­dun­gen dar­stellt, hat Mi­cro­soft sei­ne Azu­re-Cloud mit ei­nem ei­ge­nen ML-Ser­vice auf der Ba­sis von „Pay as you go“aus­ge­stat­tet: Mit Azu­re ML Stu­dio kön­nen Nut­zer KI-Mo­del­le ent­wi­ckeln, trai­nie­ren und an­schlie­ßend über APIs Drit­ten zur Ver­fü­gung stel­len.

Ama­zon Ma­chi­ne Le­arning ar­bei­tet mit Da­ten, die in ei­ner Ama­zon-Cloud wie S3, Reds­hift oder RDS lie­gen. Mit Hil­fe bi­nä­rer Klas­si­fi­zie­run­gen und Mul­ti­k­las­sen-Ka­te­go­ri­sie­rung von vor­ge­ge­be­nen Da­ten las­sen sich neue KI-Mo­del­le bau­en. Das DMTK (Dis­tri­bu­ted Ma­chi­ne Le­arning Tool­kit) von Mi­cro­soft soll ML-An­wen­dun­gen über meh­re­re Ma­schi­nen hin­weg ska­lie­ren. Es ist eher als Out-of-the-Box-Lö­sung ge­dacht und we­ni­ger als Frame­work – ent­spre­chend ge­ring ist die Zahl der un­ter­stütz­ten Al­go­rith­men.

Goog­le Ten­sorF­low ba­siert auf so­ge­nann­ten Da­ta-Flow-Gra­phen, in de­nen Bün­del von Da­ten („Ten­sors“) durch ei­ne Rei­he von Al­go­rith­men ver­ar­bei­tet wer­den, die durch ei­nen Graph be­schrie­ben sind. Die Be­we­gungs­mus­ter der Da­ten in­ner­halb des Sys­tems hei­ßen „Flows“. Die Gra­phen las­sen sich mit­tels C++ und Py­thon zu­sam­men­bau­en und via CPU oder GPU ver­ar­bei­ten. Das Mi­cro­soft Com­pu­ta­tio­nal Net­work Tool­kit (CNTK) funk­tio­niert ähn­lich wie Goog­le Ten­sorF­low: Neu­ro­na­le Net­ze las­sen sich durch ge­rich­te­te Gra­phen er­zeu­gen. Mi­cro­softs ei­ge­ner Be­schrei­bung zu­fol­ge lässt sich CNTK au­ßer­dem mit Pro­jek­ten wie Caf­fe, Thea­no und Torch ver­glei­chen, sei aber schnel­ler und kön­ne im Ge­gen­satz zu den ge­nann­ten par­al­lel auf Pro­zes­sor- und Gra­fik­pro­zes­sor­leis­tung zu­grei­fen.

Samsung Ve­les: Das Samsung-Frame­work ist da­zu ge­dacht, Da­ten­sät­ze zu ana­ly­sie­ren und au­to­ma­tisch zu nor­ma­li­sie­ren, be­vor sie in den Pro­duk­tiv­be­trieb über­ge­hen, was wie­der­um durch ei­ne ei­ge­ne API na­mens REST so­fort mög­lich ist – vor­aus­ge­setzt, die ein­ge­setz­te Hard­ware hat ge­nü­gend Po­wer. Der Py­thon-Ein­satz in Ve­les um­fasst auch ein ei­ge­nes Ana­ly­se- und Vi­sua­li­sie­rungs-Tool na­mens Ju­py­ter (frü­her IPy­thon) für die Darstel­lung ein­zel­ner An­wen­dungs-Clus­ter.

Brain­storm setzt auf Py­thon, um zwei Da­ta-Ma­nage­ment-APIs („Han­ders“ge­nannt) be­reit­zu­stel­len – ei­ne für CPU-Pro­ces­sing durch die Bi­b­lio­thek „Num­py“und ei­ne für GPU-Ver­ar­bei­tung via CUDA. Ein be­nut­zer­freund­li­ches GUI ist in Ar­beit.

ml­pack 2: Die neue Ver­si­on der in C++ ge­schrie­be­nen Ma­chi­ne-Le­arning-Bi­b­lio­thek ml­pack, die erst­mals im Jahr 2011 er­schien, bringt ei­ne Men­ge Neue­run­gen mit – dar­un­ter neue Al­go­rith­men und über­ar­bei­te­te al­te.

Mar­vin: Der Qu­ell­code von Mar­vin ist sehr über­sicht­lich – die ent­hal­te­nen vor­trai­nier­ten Mo­del­le er­mög­li­chen be­reits ei­ne um­fang­rei­che Wei­ter­ent­wick­lung.

Ne­on von Ner­va­naSys­tems ist ein Open-Sour­ce-Frame­work, das auf ein- und ab­schalt­ba­ren Mo­du­len ba­siert und KI-Pro­zes­se via CPU, GPU oder Ner­va­nas ei­ge­ne Hard­ware er­mög­licht.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.