Big Data and scientific research: What can a data warehouse consultant and a space physicist at NASA learn from each other?

What can a SAS Partner from Sweden and a space physicist at NASA learn from each other?

Read how Big Data can be a connection point between academia and the business world, where the two help each other learn new and old methods so that both parties can reach insights quicker. (Mr Mohammadi was graduated 2012 from our program of Data- and Business Analytics consultants/Data Scientist in Sweden).

jorden & solen

What could a space plasma physicist have in common with a data warehouse consultant? At first glance, not much, but is it really so?

If we try to remove space physics terminology, ignore fluid dynamics and Maxwell's equations, and instead focus on what these types of scientists actually do with their data, it might not be that foreign after all. The fact is that both numerical-physicists and experimentalists are completely dependent on their data for new insights. The data source is usually numeric simulations based on a model, or as in the case of an experimentalist, the instruments with which they measure their experiment. Both cases however can produce really Big Data, huge even.

Next, the physicist would prepare the data for analysis in different ways. If you have a data warehouse background, you might have just thought quietly for yourself “ETL?” (Extract-Transform-Load) and you would be right to think so, in some sense it is an ETL-process. Even though this might be true, data warehousing is used very little in this type of academic research. The question that comes to mind is: Can Big Data be a connection point between academia and the business world, where the two help each other learn new and old methods so that both parties can reach insights quicker? Yes, I actually believe that it could.

With these reoccurring thoughts we reached out to one of my former colleagues from my own space physics days, Lars Daldorff, who nowadays is contracted at NASA and works with numerical plasma simulations. We asked ourselves a simple question: What would happen if we would take simulations Lars had of the Sun and structured them in such a way that they could be uploaded into a Big Data, in-memory environment which used out-of-the-box analytical methods? The challenge that Lars Daldorff faced in his work at NASA was not to produce big data volumes, but to analyze it in an effective way. To illustrate the point, when we as Data warehouse consultants asked “How big is your data?”, the reply we got was “How big do you want it to be?”.

In the academic numeric world, the fast paced technical development and access to large super computer centers has meant that production of data can easily be scaled up. However, much of what is produced is of little or no scientific interest, it is simply already known physics or noise of different sort.

fig 1
Fig 1. A simplified description of the existing process on how you work with scientific data to find insights about it.

Basically this is a needle in a haystack situation, the phenomena of interest is somewhere in the data, but you usually do not know “where” or even “when” in the data it can be found. At the same time, the visualization and analysis methods usually used are time consuming. A consequence of this is that the researcher in question (in this case, a physicist) needs to slice the data by making qualified guesses “where” and “when” in the data the needle is. A simplified description of the process can be seen in Fig. 1. The problem with this process is that even if you are lucky and just happen to find an interesting phenomenon on your first guess, you can’t be sure that it is the only phenomena of interest in the data.

This problem means that the time between the gathering of data (from numerical simulations of the sun in our case) and insight about your data becomes very long. But what if you didn’t have to visualize your data in slices? What if we could take out the guess work from the process? What if it would be possible to upload all of your data at once into a platform which would instantly tell you where the needle (or needles) is (are) by using standardized methods? What if, after you have found the needle(s), you could simply export the data of interest to do your full analysis on only that which matters?

Why speculate? Let’s do it!

Soon, the collaboration had started and the first analysis started to come out. The phenomena that they wanted to study was simulations of the sun, or more specifically the magnetic arches associated with solar spots, which contribute to a considerable increase the X-ray and ultraviolet radiation from the outer solar atmosphere (and hence into the upper atmosphere of earth) and how these arches arise. The phenomena can be seen in this beautiful YouTube clip that the Heliophysics group at NASA recently released as part of the “SDO” (Solar Dynamics Observatory) project.

https://www.youtube.com/watch?v=GSVv40M2aks

There are still many open questions regarding these phenomena today, however its effects are clearly visible as you can see in the clip above. When these powerful arches are created, there are speculations that a phenomena called “magnetic reconnection” occurs. It’s this moment in the data that you need to identify, both spatially and in time, that is, both“where?” and “when?”.

Fig 2
Fig. 2. Simplified description of the new process for “From creating/collecting data to insight” , where we first load the entire data, automatically analyze and visualize all candidates of “Point of Interest” (POI) and then export the data for deeper analysis performed by the subject expert.

We loaded the entire data set into SAS Visual Analytics, in our own setup on Microsoft Azures cloud environment, and helped Lars Daldorff get started with the platform, then we could start looking for the needle(s) in the haystack. The aim was to automatically identify where and when the phenomena occurs, for all possible candidates. We wanted to replace the circular process described in Fig. 1 with the linear process described in Fig. 2. This could simplify and speed up how you actually get results and find insights, in this particular case regarding how the sun works, maybe in your case, how your customers work.

Fig 3
Fig. 3: Shows simulated data for one of the many “arches” that are formed at the surface of the sun and how we used SAS Visual Analytics to identify the crucial moment, the needle in the haystack, with the help of heat-maps and decision trees.

What we see in Fig. 3 is how standardized methods which are widely used in the business world, suddenly find use for a completely different type of data. These tools and methods don’t care what your data is, the methods for identifying Points of Interest, performing analysis, visualizations and creating reports are the same, regardless if it’s used on business data or scientific data.

Something the academic world is generally very good at, is to experiment on their data, dare to play with it, explore it with the mindset “I don’t really know what I will find, but I hope it’s something interesting!”, or to quote a famous physicist

“Experiment is the only means of knowledge at our disposal. Everything else is poetry, imagination.” - Max Planck

This is something we in the business world really could learn from. You don’t always need to know in advance what explicit report or analysis the work should result in, there is great value in having all of your data easily accessible at the tip of your fingers so that you can experiment on it and through your experiments reach new insights about your business.

In conclusion, this is only the beginning. We have already sent these preliminary results of our collaboration to Joint Statistical Meeting in Seattle (http://www.amstat.org/meetings/jsm/2015/) and received approval to present it during the conference in August 2015. Our hope is that these results can help Lars Daldorff in his research at NASA and that this case can help show the use of explorative analysis of data. There are numerous possibilities for this application and could potentially help different types of researchers obtain quicker insights and results. More updates will follow! Keep your eyes open!

Acknowledgments
This work has been made possible by a very good collaboration between Lars Daldorff (contracted researcher at NASA) and Infotrek (a data warehouse consultancy company in Sweden) with contributions by Saiam Mufti, Lars Tynelius and support from SAS institute Sweden. Also thanks to Laura Fernandes for helping with this text.

 

Post a Comment

What About Risk Control?

20 years ago, risk was controlled by small departments in the banks.
As authorities felt they were held hostage by the systemic importance of banks, they introduced requirements to banks to become more solvent. In order to get the behavior of banks under control, many types of reports were also required. From this point in time, the working description of risk departments shifted.
Two new missions were introduced: to prove they had no risks and to assure that they were compliant. This shift has given authorities a feeling of control, however, leaves one important issue unattended: Who is now controlling the risk?

RISK small

In banks, different type of risks are constantly building and the bubble often pops at an early stage. Regulation has forced banks to work with the capital as a steering mechanism, which is a reactive way of working with the risks.
In other words, you make sure that there is enough money to pay out if the bubble grows larger than you thought. But what about the guys with the needles assuring the bubbles do not grow out of proportion?

The task of “timely popping bubbles” requires an agile risk control function with clear mandates in order to be able to proactively decrease risks. Instead of focusing on the capital to cover losses, a more forward-leaning risk control can be a part of the business.
Some examples where this can be pushed much further than today are e.g. support development of new products with a risk angle, through clearer mandate in M&As and stronger mandates in working with temporary portfolio limitations.

In many countries, this is important right now! With the volume focus from tougher competition, increasing loan to salary ratio in households and stretched market prices and macro data, risks are building.

I say: Reclaim Risk Control!

 

Post a Comment

Would you have selected the red car?

Decisions constantly claim your attention. You need to decide what to wear, maybe what type of person to hire or which strategic business choice to make. Even if you are not always aware of why, the choice is not random. Analyses have been carried out prior to your choice. It can be based on previous experience, sophisticated analyses or just logical thinking of the impact of the decision. In a company, all these decisions and the ability to execute are key components for long-term successful financial development.

Have you assured the prerequisite for the best possible decisions in your organization?

In my experience, banks have a potential of improvement. One of the key components driving decision-making is the basis for the decision.

förstoringsglas liten

Business and strategic decisions are often based on personal experience, but less on data analytics. With the hypothesis that multi perspectives can improve decisions, I believe usage of refined data (descriptive, prescriptive and predictive analytics) should be used more as decision support.

Why is it not used more? Many managers are untrained in refined data. For this reason, it might be hard to see the possibilities and trust results.

The conclusion from this reasoning is that decisions might be sharper if management was trained in refined data. Agree?

 

 

Post a Comment

Vågar du ta nästa steg inom controlling?

SAS Institutes VD, Jeanette Anttila, har skrivit en krönika som handlar om vilka möjligheter som öppnas upp när vi arbetar med analys som blickar in i framtiden. Grunden är ett beslutsfattande baserat på analyser av data som ger betydligt fler insikter och modeller för att få hjälp med att fatta rätt beslut. I många år har vi pratat om hur CFO:n och controllerfunktionen kan bli en mer proaktiv och framåtriktad affärspartner till verksamheten och ledningen.

Det som händer på marknaden kring Big Data, analys och digitalisering innebär att fler branscher och roller börjar dra nytta av all den data som finns och använda analytiska modeller för att skapa kundinsikter och bättre förstå sin affär. Men mycket tyder samtidigt på att CFO:n och controllerfunktionen sitter fast i gamla arbetssätt.

Tar verkligen CFO:n och controllerfunktionen tillräckligt stora steg?

En stor del av controllerarbetet är fortfarande reaktivt, d.v.s. deskriptiv analys som endast visar vad som har hänt bakåt i tiden och som oftast är baserad på en resultat- och balansräkning. Här ser vi utmaningar med att kunna förklara varför utfallet ser ut som det gör eftersom system, data och arbetsätt många gånger är begränsat till vårt finansiella data.

När det gäller den framåtriktade analysen är detta oftast starkt kopplat till tunga traditionella budget- och prognosprocesser. Detta bygger åter igen oftast på ett historiskt utfall, där man sedan applicerar olika managenment bedömningar. En av utmaningarna med detta sätt är att vi inte riktigt vet om historiken är relevant för att prognosticera framtiden. Ingen kan naturligtvis ge helt säkra svar på hur framtiden ser ut, men det finns betydligt bättre sätt att progonsitera framtiden än de som oftast används idag. Utöver detta är mycket av det ad-hoc och analytiska arbete som utförs idag manuellt, tidskrävande och personberoende, oftast med brister i spårbarhet och transparens.

Vad krävs då för att kunna ta nästa steg?

Vi behöver framför allt mod att starta en analytisk resa genom följande steg:

  • Lokalisera alla tidstjuvar som beror på manuellt arbete. Vi behöver förnya vårt arbetssätt för att komma ur excel genom att autmatisera och effektivisera.
  • Använda oss av fler sorters informationskällor som grund för vår analys, både finansiellt och icke-finansiellt data.
  • Arbeta med framåtriktad och prediktiv analys på riktigt. Denna typ av analyser behöver kunna göras löpande och inte bara vara bunden till kvartals- och årsprocesser. För att öka träffsäkerheten i våra prognoser är det viktigt att kunna simulera sannolikheten kring olika scenarior och effekten av olika intiativ och som grund använda oss av statistiskt signifikant historiskt data.

Detta är inte rocket-science och används redan idag inom ett flertal områden. Det kan vara allt från att prognostiera underhåll på maskiner, till väderförhållanden och att via sociala medier knyta nya relationer baserat på kunskaper kring profiler och intressen.

Vad är det som gör att vi inte tar mod och skapar förutsättningar för att verkligen jobba mer analytiskt och framåtiktat? Det vi ser och hör på marknaden är att många har fullt upp med att bara hantera de traditionella controllerarbetet och och hantera den dagliga strömmen av förfrågningar ifrån verksamheten. Vi behöver dock parallellt orka och våga höja oss över det dagliga arbetet och se vilka möjligheter som finns för att inte snabbt och plötsligt hamna efter våra konkurrenter.

Mer info för controllers

Post a Comment

Dags att skruva upp tempot kring åtgärder mot penningtvätt och finansiering av terrorism!

Detta ständigt aktuella ämne har hamnat i fokus idag igen då Finansinspektionen meddelar att två av Sveriges och Nordens största banker inte följt gällande regelverk på området. Den ”nya” lagen om åtgärder mot penningtvätt och finansiering av terrorism antogs redan 15 mars 2009 och per 1 augusti i år kommer nya förändringar i befintlig lag.

Vad får dessa beslut från Finansinspektionen för konsekvenser för den finansiella sektorn i Sverige och Norden? Det ska helt klart bli spännande att se. Mina fem råd till hur man bäst angriper det oerhört viktiga arbetet med implementering av gällande regelverk är:

  • Tone at the top – allt börjar med att bankernas styrelser och verkställande ledningar verkligen förstår att deras verksamheter är i riskzonen för att utnyttjas för penningtvätt och finansiering av terrorism
  • Tillsätt resurser – rätt kompetens och rätt antal personer på rätt plats. Ett litet talessätt kring Compliance är: ”Pay now... or pay later”.
  • Transaktionsgranskning är oerhört viktigt men enkla affärsregler räcker inte till längre, analys måste tillsättas för att hitta avvikande beteenden, mönster, nya metoder och trender.
  • Analysera riskerna med Anti-Money Laundering (AML)! Gör en riskbedömning och definiera ansvaret i hela organisationen. Låt riskbedömningen bli ryggraden i allt AML-arbete.
  • Viktigt att känna: Know Your Customer, Know Your Owners (Beneficial Owners), Know Your Employees och min egna lilla förkortning: KYD (Know Your Data)!

Till sist, min egna slutsats, som jag länge och väl stått på barrikaderna och proklamerat: Kom ihåg syftet med AML-arbetet!


Marie Lundberg, Senior AML & Fraud Expert på SAS Institute har över 20 års erfarenhet från den finansiella sektorn. Hon är specialist på praktiska åtgärder mot penningtvätt och finansiering av terrorism med lång erfarenhet från AML-arbete på bank och andra finansiella företag inom Norden och Europa.


Hör gärna av er för att diskutera ämnet med mig, hälsningar

Marie Lundberg, SAS Institute
marie.lundberg@sas.com
Tel: +46 (72) 724 9370
Twitter: @marieluaml
LinkedIn: https://se.linkedin.com/pub/marie-lundberg/5/b5a/b91

 

Post a Comment

I en värld av Big Data – vad skiljer en Data Scientist från en Statistiker?

Dr Michael Rappa är grundare och ansvarig för Institute for Advanced Analytics i North Carolina State University. Som chef för institutet leder han USAs första Master of Science Analytics. Vi har frågat Dr Rappa om hans tankar kring rollen Data Scientist samt om några tips för en värld av Big Data.

Data Scentists - Dr Michael Rappa
Dr. Michael Rappa

Hur skulle du definiera en Data Scientist?
Data Scientist, som det används idag, är fortfarande en framväxande jobbkategori. Även om dess popularitet har skjutit i höjden hos arbetsgivare de senaste åren, tror jag inte det finns en enda definition som gäller - och kanske bör vi inte förvänta oss att det ska vara det på detta stadium. Jag definierar en Data Scientist i stort som någon med tekniska kunskaper och färdigheter i verktyg som utvinner värdefulla insikter från olika datakällor som genereras i dagens digitala ekonomi. Den kanske enskilt viktigaste egenskapen hos en Data Scientist är djup passion att brottas med komplexiteten i dataanalys.

Vad skiljer en Data Scientist från en statistiker eller en person som arbetar med data mining?
En Data Scientist måste behärska statistiska begrepp. Jag tror inte att du behöver en doktorsexamen i statistik, men du behöver en nivå av förståelse som går utöver grundnivå. Data Scientists måste också ha en stark mångsidighet i datorprogrammering för att manipulera och sammanställa data från olika källor. Detta kan gå utöver vad som är vanligt för statistiker, i allmänhet. Med detta sagt, vissa statistiker hävdar att Data Scientist bara är en ny etikett för vad de har gjort hela tiden, och jag kan till viss del förstå deras uppfattning.
Data mining är en viktig metod som Data Scientists använder i sitt arbete. En Data Scientist kommer att ha flera olika metoder i sin verktygslåda, som kan tillämpas på lämpligt sätt på det aktuella problemet. De bästa Data Scientists slutar aldrig att lägga till verktyg till sin repertoar.

Data Scientists

Vilket råd skulle du ge till en som vill bli Data Scientist?
Det första jobbet är ofta en språngbräda och är det rätt kommer det ge dig maximal lyft av din utbildning. Om du kan, fokusera inte för mycket på geografisk placering eller den högsta lönen. Jag uppmuntrar mina elever att tänka på sin första position som en medicinsk hemvist, att börja på ett ledande sjukhus där man kan dra nytta av att vara runt erfarna kirurger och läkare och lära sig yrket. Efter tre års erfarenhet, då kan du överväga att flytta på dig, om det är vettigt, till en geografisk plats eller bransch som bättre passar dina behov.
Sluta aldrig att lära. Speciellt idag - det finns så många bra möjligheter att fortbilda sig i det dagliga, fortsätt fylla på din verktygslåda. Var alltid professionell. Fundera över hur ditt arbete är kopplad till och tillför värde för din organisation/verksamhet. Bygg starka relationer med kollegor – lär av dem och dela din kunskap. Ha tro och tillit på kraften i ett team. Bli en fulländad lagspelare som alla vill ha i sitt lag.
Jag vill varna kandidater att inte fastna i den hype som finns just nu i rollen. Data Scientist har fått en status som en ny "sexy" karriär – men om sanningen skall fram - det är ingenting sådant. Värdefulla insikter från data kommer inte lätt eller snabbt. Det är vanligt hårt arbete, som tar tid, kräver skicklighet och beslutsamhet för att ta ett affärsproblem till färdigt resultat. Om den personen är du, då är det en fantastisk karriärmöjlighet och du kommer upptäcka att det inte är någon brist på arbete efter genomförd utbildning.

Läs hela intervjun här

Post a Comment

Dagens tonårstjejer - framtidens analytiker?

För några veckor sedan hade vi Sveriges framtid på besök här på SAS under Introduce a Girl to Engineering Day. Tolv tjejer i 12-15 årsåldern kom hit och fick lära sig om analys och höra vad en SAS-konsult gör hela dagarna.

Tjejerna fick först höra lite bakgrundshistoria om vilka SAS Institute är och vilka vi som jobbar här är. Efter det fick de en introduktion till SAS Visual Analytics, ett verktyg som dels kan användas till att bygga och titta på dynamiska rapporter, och dels kan användas till att utforska data ad-hoc för att kunna besvara frågor och upptäcka samband.

De fick sedan gräva runt i filmdata som innehöll information om filmtitlar, betyg, längd, budget med mera. De fick besvara frågor som "Varför ser det ut som att man tjänar mest pengar på filmer med åldersgräns 11 år? Fundera över orsaker och "Vissa personer upplever att det görs längre filmer nu än vad det gjordes tidigare. Stämmer det?". Övningen gick riktigt bra och skulle vi få in några produktionsbolag som kunder så vet vi var vi kan börja rekrytera fler duktiga analytiker! 

Post a Comment

Data Scientists med en knapptryckning

 

Är det möjligt?

I dagens digitaliserade och globaliserade värld är behovet av data- och affärsanalytiker tydligt. Den absolut hetaste yrkesrollen i Silicon Valley just nu är Data Scientist som möjliggör Data-driven produkt utveckling och affärs transformation. Rollen myntades 2008 av D.J. Patil och Jeff Hammerbacher (då på Linked In och Facebook) och rollen har nu även blivit etablerad i sverige och norden.

Data Scientist - teknisk bakgrund som kan förstå avancerade dataset, göra analytiska och matematiska beräkningar på denna men som samtidigt vet vad de skall leta efter och kan presentera resultatet på ett greppbart och relevant sätt

Kompetensen hos en Data Scientist har en hybrid och komplex profil, historiskt oftast +15 års erfarenhet för att kunna axla yrkesrollen fullt ut. Data Scientist är en disciplin att kunna utvinna kunskap från ofta komplexa och stora mängder av data för att förbättra beslutsfattandet. Det innebär en mängd olika kärn-kompetenser, inklusive att förstå affären, data utforskning och datamodellering. Andra delar av kompetensprofilen är programmering och kodning. Med programvaruindustrins utveckling de senaste åren har bla självbetjäning, nya sätt att lagra data och In-Memory teknik möjliggjort att fler kan laborera med data utan att behöva koda. 

På Gartner Summit i början av mars i London, lyftes det stora behovet och rollen Citizen Data Scientist fram.

DS Patric HNu finns den första data- och affärsutbildningen med certifiering av en Data Scientist i Sverige. Programmet vänder sig till deltagare med både Senior eller Junior profil (upp till 3år arbetserfarenhet). Den inkluderar en kvalitetssäkrad och effektiv process från rekryteringen av talanger till kopplingen av behovet ute hos kunder och partners.

SAS Institute har etablerat strategiskt partnerskap med 2 rekryteringsbolag (Adecco och Bravura) som med en "knapptryckning" tar fram kandidater/talanger med rätt förutsättningar att genomgå det krävande programmet för Data Scientists. Rekryteringsprocessen är 1-4 månader och deltagaren är anställd (eller hyrs in) och arbetar i befintligt projekt hos uppdragsgivaren under programmet.

Utbildningen innebär för en motsvarande Citizen Data Scientist totalt  16 lärarledda utbildningsdagar under 12 mån. I programmet jobbar deltagaren med tre perspektiv: Technology, Process och Skills vilka varvas teoretiskt och praktiskt. Kombinationen av Analys och affärsperspektivet samt verktygs utbildningen leder till att arbetsgivaren får vid programmets slut, ett beslutsunderlag för kommande steg i den analytiska livscykeln (högre värden) samt underlag för löpande karriärplan för deltagaren (Talent Managent).

Läs mer om Data Scientist här

Intresserad av certifieringsutbildningen, kontakta mig så berättar jag mer.

Patric Hellgren, SAS Institute
Patric.Hellgren@sas.com
tel: +46 (72) 724 9351

Post a Comment

Hockeyanalys 2.0 - Nästa generations analys av hockeystatistik är här för att stanna!

”John! Har du de sett den här filmen?”, frågade Christer Bodell - en passionerad SAS evangelist inom Analys. Filmen hette Moneyball. ”John! Har du sett klippet om SAS, Maple Leafs och NHL ?”, frågade Jon Blomqvist.

Filmen och klippet hade jag inte sett  - men efter att ha sett dem såg jag att det faktiskt gick att kombinera min passion för hockey med mitt jobb… SPORTS ANALYTICS fanns i mitt medvetande och en ny tankeprocess satte igång i mitt huvud. Jag diskuterade saken vidare med Christer. Han var lika exalterad och hade nosat upp författarna Jan Lennartsson (Matematiker och tidigare handbollsspelare) och Carl Lindberg (adjungerade professor ) som tillsammans med den f d ishockeyspelaren Nicklas Lidström skrivit uppsatsen ”Game intelligence in team sports

Christer hade träffat författarna och fått det förklarat hur de i uppsatsen hade kartlagt Niklas Lidström spelsystem, och översatt det till faktiska sannolikheter via en matematisk modell, som statistiskt förklarade varför Niklas spelade som han gjorde. När de frågade Niklas om andra hade försökt kartlägga hans spelintelligens, så visade sig att ”ingen hade frågat tidigare”…

Intresset fick mig att bevaka hashtaggen #fancystats på Twitter och snabbt hittade jag svenska Petter Carnbro @numerartovertag som precis plockats in av Frölunda för titta och analysera just hockeystatistik - och plötsligt fanns inte hans blogg tillgänglig längre...

Och mitt i detta nyvakna hockeystatiskintresse öppnade NHL plötsligt upp sin skattkista med statistik och gjorde den tillgänglig.

-Jon!!! Har du sett statistiken från NHL? Vad tror du om att läsa i den i Visual Anlaytics?! (vårt SAS verktyg för analys och visualisering) ”Inga problem”, sa Jon - som även han fick kombinera sitt kanske ännu större hockeyintresse med jobb. Så sent på kvällarna  - efter arbetstid, droppade det in den ena analysen efter den andra om analyser som Jon gjort på NHL-data. Här följer några exempel på vad Jon fick fram!

 

Analys av tekningsstatistik

Vi börjar med analys av något som kan tyckas vara väldigt ordinärt – tekningar. Framgångsrika lag har som oftast duktiga tekare och bra statistik i så kallade special teams som avviker från snittet i NHL. Hur kan jag som coach få en överblick över samtliga tekare och hur de presterar jämfört med snittet i NHL? Med hjälp av spridningsdiagram tillsammans med analys (svarta regressionslinjen representerar snittet) kan coacher visuellt se vilka som presterar väl i dessa situationer. Varje punkt, i bilden nedan, representerar en spelare där x-axeln är antalet förlorade tekningar och y-axeln är antalet vunna tekningar. Jag som coach skulle alltså vilja ha spelare som ligger över den svarta linjen. Tydligt ser vi att den markerade spelaren (Jonathan Toews i Black Hawks) presterar mycket bättre än snittet när det gäller totalt antal tekningar under en säsong. Ger detta en fullständig blick hur Toews presterar och finns möjligheten till att bli ännu bättre och i så fall i vilka situationer? Analyseras endast toppnivån så kan man lätt missa viktigt fakta. Om vi bryter ner denna analys ser vi att Toews faktiskt har mycket sämre tekningsprocent i numerärt underläge jämfört med umerärt övertag samt mycket sämre tekningsprocent på bortaplan jämfört med på hemmaplan. Vad kan det beror på – är det rent av latet vid spela i numerärt underläge eller är förklaringen att Toews möter bättre motstånd i dessa situationer? Med hjälp av data, visualiseringar och analys kan vi hitta indikationer till varför och även fakta.

Blog - sören 3

 

Analys av spelares prestationer i matchavgörande situationer

Hur ska jag som coach välja rätt spelare när det hettar till, dvs ”Close Game situations”? Här ser vi att svensken Hampus Lindholm ligger mycket bra till. Storleken på bubblan visar att han får mycket förtroende vid s.k Close Game situations (stor bubbla = stort förtroende och mycket istid) samt han också är inne på fler mål framåt (y-axeln) jämfört med bakåt (x-axeln). Med hjälp av detta kan man också se vilka spelare som inte presterar så bra i dessa situationer (nedre högra hörnet). Varje bubbla representerar en spelare och gör det möjligt för coacher att få en samlad bild över alla spelare vid dessa sitationer. Underhållningsvärdet med hjälp av analyser och statistik skulle även kanske kunna höjas för publik och tittare i sofforna…

text till blogg

Blog - John2

 

Bara genom att lägga någon minuter kom alltså Jon fram till slutsatser som antagligen skulle ha tagit dagar/veckor att komma fram till med att stirra sig blind på 890 spelare med 343 mått på spelarstatistik! Och det här var bara några frågor som spontant dök upp i Jons huvud... Antal kombinationer av frågor – och svar blir närmast oändliga med NHL’s 343 mått på spelarstatistik. Lägg då till om det hade funnits tillgängligt data efter varje match och vi hade kunnat göra trender… Tex varför har antalet tacklingar för en spelare börjat minska? Några föklaringar kan vara att spelaren inte är tillräckligt fokuserad eller rent av skadad och vill minimera antalet fysiska situationer. Med analys kan lagets coacher arbeta proaktivt med spelarstatistk för att undvika dippar under säsongen. Även motståndarens coacher kan uppfatta nedåtgående trender för sina motståndares spelare. Med hjälp av data, visualiseringsmöjligheter och analys kan coacher hålla koll på samtliga spelare och jämföra dem.

När når då Sports Analytics på allvar Sverige och vilken sport & klubb tar på sig ledartröjan och gör en svensk ”Moneyball” ? Eller är den redan här? Via Frölunda? Eller kanske kan Karlskrona uppgång i SHL – med liten budget och ett avancemang från division 1 till SHL på 3 år delvis förklaras av analys av data då spelaren Tom Linder bland annat tackar ”Datacoachningen” i en segerintervju i SVT...

John Carlbäck @jcarlback  & Jon Blomqvist @JonBlomqvist

Post a Comment

Are Nordic companies maturing their big data journey?

For years, large geographical regions such as the US and the UK have experimented with big data analytics to gain true business advantages – creating an opportunity to adapt better to customer demands, to optimize business models and to mitigate risk. Meanwhile, most companies in the Nordic countries have been in a watch-and-wait mode and not set out on a big data journey to adopt technologies such as Hadoop.

During the past year, SAS Institute has experienced an increasing interest from organizations anxious to do more with the vast variety of data available to them. For this reason, SAS decided to take the temperature of the adoption of Hadoop technologies and big data analytics in the Nordic region as well as the maturity by country and industry, and what the primary causes, use cases and obstacles are at present.

In December 2014, we conducted telephone interviews and an online survey with more than 300 IT managers from companies across industries in Denmark, Sweden, Norway and Finland.

We found that 85% of companies in the Nordic region have a growing need for performing analytics on more data, and 6 out of 10 see a need to collect new types of data (such as clickstream, machine log, text, sensor, social media, videos and images).

The Nordics companies know that it is time to consider a new approach. As much as 92% believe they will gain competitive business advantages if they have a broader information picture for analytics and business decisions. Especially customer and market Intelligence, operational efficiency and innovation/R&D are key areas for setting out on a big data journey and consider adopting a technology such as Hadoop as a platform for exploitative analytics. Moving volume marketing to a more personal approach will open up for new markets, products and ways to grow a company.

This is all good. However, only half of the companies believe they have an infrastructure capable of meeting these needs and demands today. But Nordic companies are ramping up. According to the survey, 9% of the companies either have or are about to install Hadoop, and this adoption seems to double in 2015 – taking shadow IT into consideration, these numbers might be higher.

The need for information, faster, to make timely decisions on new and changing market opportunities, customer expectations and risks is a factor of which most of the organizations are aware. Yet only 13% believe they meet these demands satisfactorily today – and what happens when you include more data and new types of data?

A couple of reasons for the slower adoption of big data platforms such as Hadoop, in the Nordic region, seems to be concerns about the need to acquire new resources and skills not currently in the organization as well as uncertainty about the technology maturity.

What we experience is that the technology has matured and has a proven record – and in many cases, organizations already have people with insight in data and analytics. So is this just a matter of others to show how it should be done, and does the real issue more likely concern who actually owns a big data analytics initiative within the organization?

Maybe not surprisingly, companies within telecommunications and financial services are the most mature, leading the way in the Nordic region. The midsize and large companies in several other industries follow suit – and as more and more companies mature, organize themselves and show their competitive edge by adopting big data analytics – the buzz will disappear.

Learn more about the finding from the Nordic survey

Post a Comment