Eszközeink

Statisztikai Eszközök

A megoldások sokszor az adatokban rejtőznek. Ezeket olyan klasszikus statisztikai módszerekkel kell kibontani, mint regresszió számítás, döntési fa modellezés, random forest megközelítések, klaszterszámítás és társai. Ezek az elemzések nagyon hasznosak lesznek a modellépítés azon fázisában, amikor az automatikus modellezési eljárások képbe kerülnek. 

A statisztikai modellezés rávilágít egy gyakran figyelmen kívül hagyott kérdésre: az adatminőségre. A hiányzó adatokkal kapcsolatos kérdések (beleértve a hiányzó adatok struktúrájának kérdését is), az outlierekkel kapcsolatos kérések csak azután integrálhatók az automatikus feldolgozási folyamatba, hogy tökéletesen megértettük a természetüket. 

Vizualizáció

Még a legegyszerűbb oszlop vagy kördiagram is sokat segíthet az adatok megoszlásában vagy interakcióinak megértésében. „Egy kép többet mond 100 szónál” mondja a magyar.

Ráadásul az adatvizualizáció a figyelem központjába került az utóbbi időben és a Spotfire, Tableau, R vagy Power BI, illetve a az infographics vagy geosattistics jelentősen megnövelték az igényt az eredmények grafikus kommunikációjára. 

A vizualizációnak két fontos felhasználási területe van: az adatok feltárása és interpretálása és az eredmények – pl. matematikai modellezés eredményei – megjelenítése. A timelapse videók megjelenésével a folyamatok vizualizációjának új ábrázolási formája született (pl. az időjárás előrejelzés). 

Mesterséges intelligencia

Mesterséges intelligencia (Artificial Intelligence), gépi tanulás (Machine Learning), mély tanulás (Deep Learning)

A terminológiát tekintve van egy kis zavar, különösen a mindennapi beszédet illetően. Eléggé elterjed mesterséges intelligencia megoldásokról beszélni. Őszintén szólva, az emberiség még nem képes mesterséges intelligencia megoldások előállítására. Definíció szerint még nem érkeztünk meg az AI világba. De mindenképpen az előszobájában vagyunk.

Amire ténylegesen képesek vagyunk, olyan algoritmusok építése, amelyek egy, vagy kis számú célok párhuzamos elérése törekednek és ténylegesen fejlesztik önmgukat. Miután definiáljuk a siker és kudarc ismérveit, ezek az algoritmusok mindent elkövetnek, hogy elérjék a beprogramozott célt az elkövetkező hibák minimalizálása mellett. Ezeket az algoritmusok nevezzük gépi tanuló eljárásoknak, mivel ők a saját működésük alapján vonnak le következtetéseket.  

Az ún. mély tanulás szintén egy tanulási algoritmus. Mialatt a gépi tanulásban felállítunk bizonyos kiindulási szabályokat, amelyeket aztán az algoritmus tovább finomít, a mély tanulásban a modellek felállítása közvetlenül az adatokból történik. 

A neurális hálózat olyan modellezési eljárás, amely az agyban lezajló döntési mechanizmusokat hivatott leképezni. Hasonlóan, a beszédfelismerés vagy a natural language processing (NLP, természetes nyelvi feldolgozás) olyan modellezési keretrendszerek, ahol az eredmény jobban függ a „mély” ismeretektől, (pl. a felhasznált szótárak komlexiásától), mint a programozók által meghatározott kiindulási érékektől. 

Felkeltettük érdeklődését?