Más tollából…

A világ legveszélyesebb emberei ma nem tartanak fegyvert a kezükben. Helyette pódiumokon álltak, ideológiát terjesztettek, vagy éppen tollat ragadnak és törvényeket írnak. Olyan emberi törvényeket, amiket kizárólag a társadalmi kényszer tartat be velünk. De a világ időközben megérett a technológiai szingularitásra. Hogy mi a franc az a technológiai szingularizé? Nézzük mit mond erről a Wikipédia:

“Technológiai szingularitásnak (röviden szingularitás vagy különösség) nevezzük a tudományos-fantasztikus irodalomban és a jövőkutatásban azt a lehetséges jövőbeli eseményt, amikor az emberfeletti intelligencia megjelenése miatt a technológiai fejlődés és a társadalmi változások felgyorsulnak, olyan módon és sebességgel változtatva meg a környezetet, amit a szingularitás előtt élők képtelenek felfogni vagy megbízhatóan megjósolni. Az esemény a nevét a fekete lyukak közelében létrejövő gravitációs szingularitás analógiájára kapta. A fekete lyukak közelében a jelenleg ismert fizikai modellünk használhatatlanná válik a végtelen nagy vagy nullához tartó mennyiségek megjelenése miatt. Ehhez hasonlóan a technológiai szingularitást megközelítve sem tudjuk az eseményeket előrejelezni jelenlegi jövőmodelljeinkkel.”

Ma még nem következett be a technológiai szingularitás, de talán már egyre többen érezzük annak elkerülhetetlen közeledtét. A sokat emlegetett Internet újra írja a játékszabályokat az élet majd megannyi területén, de ez csak a kezdet, csak az alapvető építőkocka. Az emberfeletti intelligencia jelenlétét sokszor tévesen degradáljuk a gépi tanulásra és a mesterséges intelligenciára. Csodával tekintünk az önvezető autók forradalmi eredményeire, miközben nap, mint nap készségszinten használjuk a Google keresőt és fel sem fogjuk, hogy a Google kereső mögötti algoritmus már 20 éve meghaladta azt az intelligenciaszintet, amit ép ésszel fel tudna fogni az emberiség 99,9999%-a. Az “emberfeletti intelligencia” csak annyit jelent, hogy az emberiség felett áll… Ami sajnos egy olyan megugorható léc, ami évről-évre egyre alacsonyabban van…

A jövő legveszélyesebb emberei nem fegyvert fognak a kezükben tartani, nem fognak pódiumokon szónokolni és nem is törvényeket fognak írni… helyette kódokat írnak. Olyan kódokat, amik alapjaiban módosítják mindennapjainkat. Szépen… lassan… csak pont olyan ütembe, hogy fel se tűnjön a változás. Így válik az emberiség 99,9999%-ának szinte már nélkülözhetetlen eszközévé valami, aminek működését ép ésszel talán csak, ha annak 0,0001%-a tud felérni.

A kulcs a szépen és lassan…

Ezen kódok nagy része már megíródott és elkezdték világmegváltó kalandjukat. Szépen… lassan… komótosan, ahogy egy fekete lyuk fal fel egy komplett univerzumot. Ezek a kódok meghaladják társadalmaink írott és íratlan törvényeit vagy etikai kódexeit. Irodisták hadserege éjt nappallá téve körmöl Brüsszeltől New Yorkig és dolgozik azon, hogy rendeleteket, törvényeket és szabályokat alkosson olyan dolgokra, amiket már csak a társadalmi konvenciók és a technológiák mögött álló személyes kötnek a materiális világunkhoz. Ezek a személyek büszkén járnak (vagy éppen zavarodottan… ki-ki saját képességei szerint) a szenátusi meghallgatások és adják meg a tökéletes választ: “Sajnos már fogalmunk sincs arról, hogy mit csinál az algoritmus… hiszen az már régóta saját magát fejleszti.” Vajon létezik törvény, amit magára nézve kötelezőnek érez egy gépi tanulási kód?

És hogy mikor fog bekövetkezni mindez, mikor fogjuk tudni megtapasztalni mindennek technológiai gyorsulását és társadalmi változásait? Nos a definíció alapján… vagy rossz hírem:

“a szingularitás előtt élők képtelenek felfogni vagy megbízhatóan megjósolni.”

Adatvizualizáció a kriptopiaci hatások elemzéséhez

Újabb roppantul izgalmas időszak kellős közepén vagyunk. A kriptovilág referenciamutatójaként aposztrofált Bitcoin árfolyama immáron harmadik alkalommal nézette le a 6000 US$-os árfolyamra, mely szintről egyelőre igen enerváltan próbál újra elpattanni. Jelen pillanatban minden mutatószám inkább további korrekciókat sugall mintsem látványos kitörést. Persze – ahogy szokás mondani – vihar előtt a legnagyobb a csend.

Aki – bármilyen üzletág kapcsán – már foglalkozott nagy mennyiségű adatok statisztikai elemzésével, az pontosan tudja, hogy a bigdata és machine learning címkékbe csomagolt (általában csak a lineáris regresszió szintig jutó statisztikai elemzés…) olyan hasznos adatokat generálhat, amik alapvetően tudják megváltoztatni egy-egy üzleti vállalkozás vagy akár iparág jövőjét. Persze ennek fontos előfeltétele, hogy az adott üzletág rendelkezzen minél több elemezhető nyers adattal. Ezen a téren a blockchain technológiák komoly lépéselőnnyel indulnak, hiszen minden adat nyers formában publikusan elérhető a blokkláncon.

A bitcoin és ‘vetélytársai’ esetében ez a fajta adatelemzés esszenciális része az árfolyamingadozás mögött meghúzódó fundamentális okok megértéséhez. Az elmúlt hónapokban számos ilyen toolt mutattam be itt a blogon kezdve a Bitcoin NVT mutatótól egészen a UTXO vizualizációig. Ezen ‘szerszámos láda’ most egy újabb komoly vizualizációs eszközzel bővül, ami újabb szinten enged betekintést ezúttal nem csak egy-egy kriptopénz belügyeibe, hanem a fiat és kriptopénzek közötti értékmozgásokba is. A grafikonokat a coinlib.io publikálja és napi (24 órás) bontásban mutatják az értékvándorlásokat:

Az ábra számos olyan kérdésre ad választ, amit nagyon sokszor és nagyon sokan felteszünk. Jól látszik, hogy jelenleg a legtöbb új pénz a Bitcoinba áramlik, a Bitcoinon keresztül pedig az Ethereumba, EOSba, Litecoinba és további 20-30 coinba.

Szintén érdekes, hogy jelenleg a három legnagyobb fiat(-like) feeder az US dollár és Japán Yen és a Tether. Ezek aránya közel azonos. jól látszik továbbá az is, hogy míg a hagyományos fiat pénzek (feltehetően új pénz) nagy része a Bitcoinba áramlik, addig a Tether szinte teljesen arányosan ömlik a Bitcoin, Ethereum és EOS kriptókba. Plusz másodvonalként ömlik további 5-6 cryptoba is. (Bitcoin Cashtől kezdve a ETC-ig arányosan)

A fiat típusú pénzek közül külön figyelmet érdemes a Tether, hiszen a Tetherben aggregálódik a bikapiac profitjának nagy része.

Szintén érdekes tény, hogy a tavaly év végén még annyira az egekbe magasztalt South-Korean Won volumenben mennyire alacsony a többi pénzhez képest és ennél is érdekesebb, hogy az újonnan beáramló Won javarészt az EOS-ba áramlik. Pl a tavaly év végén már annyira pártolt és szénné hypeolt Bitcoin Cashba szinte egyáltalán nem áramlik Won.

hasonlóképpen izgalmas a crypto-crypto value flow ábra is. Itt nyilvánvalóan a Bitcoin a nagyvad, hiszen a tőzsdék igen nagy részét a Bitcoin valutapárok dominálnak.

Itt is a vonalak vastagsága és iránya lehet beszédes. Látszik, hogy a Bitcoinból kiáramló vagyon igen nagy része az Ethereumba, a Bitcoin Cashba és az EOS-ba áramlik. Ezek közül az Ethereum valójában javarészt csak újabb hop, hiszen a beáramló vagyon kb 1/3 megy is tovább EOS-ba és további 4-5 egyéb devizába. Ennek oka szintén ugyanaz mint a Bitcoin esetén. Az Ethereum szintén fontos értékpár számos kisebb likviditású kriptopénz fel.

Érdekes adaléka mindkét chartnak a “Bytom” coin, ami szabad szemmel is látható mennyiségű értéket aggregál Ethereumból, Bitcoinból és “Bibox Token”-ből. Ez önmagában is már érdekes tényező lehet egy researchre.

A Bytom egyébként jelenleg 12-13%-os pluszban áll Bitcoinhoz képest a pumpának köszönhetően. A hirtelen jött hatalmas népszerűség mögött a KuCoin által bejelentett BTM Mainnet swap és a jelenleg látszólag kevés alappal rendelkező Binance listázás híre állhat. A Binancera egyébként community votetal kerülhetne be a Bytom, ami kapcsán egyelőre eléggé rosszul állnak. Perpillanat a Fusion és a Pundi X is jobban áll a szavazáson. Utóbbinak igen jól jönne a listázás, mivel egy hete igen komoly mennyiségű tokent loptak el egy tőzsdei hack során.

CryptoCulture: A programozás mint alap nyelvtudás…

Adja magát, hogy a pénzügyi forradalomnak álcázott kriptovaluta térhódítás fő célja a “pénzből még több pénzt csinálni” elv manifesztálása, azonban aki minimálisan is veszi a fáradtságot, hogy mindezek mögé nézzen, az pontosan látja, hogy itt a világ legnagyobb géniuszai már a jövő kultúráját építik. Azt a kultúrát, ahol nem kerülsz hátrányba a származásod, a vallásod vagy akár a születési helyed okán. Bár tudom, itthon kifejezetten nem trendi a ‘nyílt társadalom’ mint eszme, sőt tűzzel-vassal és királykék óriásplakátokkal üldözött, mindettől függetlenül a blog  informális jellegét kihasználva engedjétek meg, hogy felhívjam a figyelmeteket arra, hogy a kriptokultúrák legfrissebb vívmányait javarészt olyan emberek készítik, akik származásuk és kasztrendszerüknek megfelelően egyébként életük legnagyobb eredményeként csak azt tudhatnák felmutatni, hogy a mindenkori legfrissebb iPhone kamerájának optikáját polírozták egy koszos, poros műhelyben valamelyik kimondhatatlan nevű kínai városkában. Ha belepillantotok az összes szörnyen menő éppen felfutófélben lévő ICO marketinganyagába, akkor ott az esetek elsöprő részében orosz vagy kínai esetleg arab illetőségű csapatokat láttok. Hogy mitől jók ezek a csapatok? Leginkább attól, hogy az anyanyelvül mellett folyékonyan beszélnek angolul és legalább ennyire készségszinten tudnak programozni is. Ja és persze a buy és sell gomb nyomogatása helyett legalább addig eljutottak, hogy legyen egy jó ötletük…

Folytatás…

A jövő legkeresettebb $crypto szakmái

Token architect, cryptoeconomist, $crypto-oracle, csak néhány példa azon ma még szinte ismeretlen vagy nem is létező szakmák közül, amik akár egy-két éven belül a legkeresettebbek lesznek. Ma már nem néz senki ferde szemmel, ha egy cég “blockchain developer”-t vagy smart contract fejlesztőt keres, bár nem is oly rég ezen még sokan nevettek volna. Ha csak rápillantok hazánk legnagyobb karrier portáljára, már ott is lehet találni “blockchain developer” pozíciót. Közismert, hogy több hazai cég is kísérletezik a témával, legutóbb pont az interticket jegyértékesítő vállalkozás hírdetésébe ütköztem, akik blockchain fejlesztőt toboroznak.

source: @cointelegraph

10 éve a csapból is az folyt, hogy hiányszakma a Java fejlesztő. Az utóbbi években mindenki Bigdata és machine learning architektet vagy fejlesztőt keres.  Nézzük, mik is lesznek azok a jövőbeli lehetőségek, amik komoly vakaródzást fognak okozni a fejvadászoknak, hiszen ez a történet nem áll meg a “blockchain developer” kategóriánál.  Az olyan platformok, mint az Ethereum vagy a Waves már most is lehetővé teszik, hogy a token és smart-contract kibocsátásokon keresztül anélkül lehessen felhasználni a blockchain technológiát, hogy teljesen új blockláncot hoznánk létre. Egyre nagyobb igény van a decentralizált pénzügyi rendszerekre, amelyek a bankok és egyéb harmadik fél által nyújtott szolgáltatások nélkül képesek garantálni a felek közötti tranzakciók biztonságát.

Folytatás…

Egy csipet deep learning, egy tk blockchain és némi quantum-computing. Mi forr az üstben?

Nagy fába vágtam a fejszémet amikor nekifogtam egy újabb kifejtős, elemzős postnak amiben az BIP148 és az Ethereum:Metropolis augusztus-szeptemberre történő aktiválódásának lehetséges hatásait ecsetelem. A problémát leginkább az okozza, hogy az olvasóval szemben számos olyan tudományos ismereteket követelnek meg ezek a témák, melyekre nem tekinthetek az általános tudás részeként. Az ellentmondás feloldása érdekében ezért készítettem egy külön postot, amiben körbejárom azokat a néhány éven belül a mainstreambe is betörő tudományos kihívásokat, melyek lényegesen fogják befolyásolni a blockchain alapú technológiák fejlődését. Nézzük mik is ezek a kihívások 2020-ig:

Folytatás…

NumPy (Python) és a Sharpe ratio barátsága

Kissé nagy fába vágtam fejszémet a Machine Learning cikksorozatom kapcsán, amikor az előző fejezetben azt ígértem, hogy hamarosan konkrét alkalmazást fogok bemutatni a gépi tanuláshoz. Már persze nem az okozza fejtörőt, hogy élő példát mutassak az alkalmazásra, hanem, az hogy miként lehet ezt normálisan a blog keretei között bemutatni. Az ezzel kapcsolatos cikk vagy iszonyatosan hosszú lesz és szinte lehetetlen lesz követni, vagy pedig olyan tudásra kell hagyatkoznom, amivel az olvasó vagy rendelkezik, vagy nem. Ez utóbbi eléggé lutri. Ezért néhány kitekintő cikkel mutatom be a NumPy alapjait, ami egyébként lényegében az összes python alapú tudományos számítási és machine learning megoldás alapját is adja.

A numpy néhány alap funkcióját egy nagyon tipikus pénzügyi metóduson keresztül (Sharpe ratio számítás) mutatom be: Ennek lényege, hogy valamilyen ismert kockázatmentes portfolióhoz/termékhez képest kerül mérésre egy adott eszközalap vagy részvénypiaci termék teljesítményének szórását. Sharpe ratio lényegében egy referencia értéket ad meg, ami egységesen mutatja az adott eszközalap kockázat-hozam mutatóját.
Folytatás…

Machine Learning (ML) II. fejezet – lineáris regresszió

Ez a cikk egy több fejezetes gépi tanulásról szóló cikksorozat második fejezet. A jelenleg elérhető fejezetek:

  1. Machine Learning (ML) I. fejezet – ismerkedés az alapokkal

Miután az alapokkal megismerkedtünk ideje belecsapni a lecsóba. A Machine Learning (ML) egyik leggyakrabban használt és legszélesebb körben ismert interpretációja a regresszió és annak alternatívái közül is a lineáris regresszió. Sokan ezen szó hallatán gyomorgörcsöt kaphatnak és rémálomként idézhetik fel az egyetemi mat/gazd. stat. élményeiket. Igen, ez ugyanaz a regresszió, amiről ott is tanultatok.

Azon olvasóknak akiknek vagy már megkopott ez a tudása, vagy nem is tűnik számukra ismerősnek ez, azoknak egy kis gyorstalpaló:

Folytatás…

Machine Learning (ML) I. fejezet – ismerkedés az alapokkal –

Ez a cikk egy több fejezetes gépi tanulásról szóló cikksorozat első fejezet. A jelenleg elérhető fejezetek:

  1. Machine Learning (ML) I. fejezet – ismerkedés az alapokkal
  2. Machine Learning (ML) II. fejezet – lineáris regresszió

Sokszor hallottam, olvastam már, hogy a Machine Learning (ML), magyarul: Gépi tanulás, lényegében egy olyan szintje az informatikának és az adatelemzésnek, amely már sokkal inkább tudományos tapasztalatokat igényel, mintsem programozói ismereteket. Sok esetben valamiféle mesterséges intelligenciának tekintik a ML-t (nem alaptalanul), amely abból a szempontból igaz is lehet, hogy a hétköznapi életben ismert és használt gépi tanuláson alapuló megoldások (pl. beszédfelismerés, képeken arcfelismerés, stb.) valóban mesterséges intelligenciára és gépi tanulásra épülne. Ettől függetlenül a gépi tanulás egyébként közel sem annyira nagy ördöngösség ami miatt tudományos fokozat kellene a megértéséhez és használatához.

Folytatás…

Timeseries vizualizáció: Kibana Timelion

Jelenlegi post még a timelion funkcionalitására épül, azonban itt jegyezném meg, hogy az 5.4-es főverzió kapcsán kiadott közlemény alapján ezek a funkciók (vagy legalábbis nagy részük) már elérhető lesz közvetlenül a beépített Kibana vizualizációs eszközökkel is. Addig is amíg nem kerül kiadásra az 5.4, viszont marad a timelion. A timelion eredetileg egy függetlenül fejlesztett Kibana plugin volt, ami az 5.0-ás főverziótól kezdődően beépült az alap Kibana funkciók közül (a Sense pluginnal együtt).

A timelion talán legfontosabb funkciója az összehasonlítható és vizuálisan részletgazdagabb chartok képessége. Mindemellett a timelionban készített vizualizációk minden gond nélkül rárakhatók tetszőleges dashboardra vegyesen akármilyen más Kibanás vizualizációval együtt.

Folytatás…

Elasticsearch Index és a performancia

Az Elasticsearch alapértelmezetten nem spórol az indexekben tárolt dokumentumok kapcsán az erőforrásokkal. Ha az adott index nem rendelkezik egy jól felépített és átgondolt mappinggel, akkor az ES gyakorlatilag “szabadfolyást” tart, minden szöveges típust analizál, minden olyan adatot ami rendezhető vagy aggregálható azt inmemory bufferbe lapoz, ráadásul menedzsel egy csomó olyan virtuális fieldet is mint pl az: _all.

Ezzel az ES egy végtelen rugalmasságot és könnyed felhasználást teszt lehetővé, ami a legtöbb projekt esetén egyébként nagyon pozitívan értékelhető hozzáadott érték. Azonban ennek megvan az ára, ez pedig a performancia. Egy tetszőleges ES installment esetén elmondható, hogy néhány millió dokumentumig nem nagyon kell foglalkozni a mappingekkel, hiszen itt még bőven érvényesül az a fajta distributed processing hozzáállás, hogy ha kezd lassulni az indexelés vagy a keresés, akkor bővíteni kell a clustert egy-két extra node-dal (már persze ha az index shard beállításainál ügyeltünk arra, hogy ennek legyen értelme…) és máris normalizálódik a performancia.

Folytatás…