Skip to content

Instantly share code, notes, and snippets.

@oyvindberg
Created May 23, 2025 09:23
Show Gist options
  • Save oyvindberg/43bab5cd0c17c1004129b2749064c0de to your computer and use it in GitHub Desktop.
Save oyvindberg/43bab5cd0c17c1004129b2749064c0de to your computer and use it in GitHub Desktop.
ingar-abrahamsen-no-branding - CV/Resume (generated)

Ingar Abrahamsen

Senior Software Engineer

Fullstack-utvikler med erfaring fra komplekse datasystemer

E-post: [email protected]
Mobil: +47 476 08 098
GitHub: github.com/ingara
LinkedIn: linkedin.com/in/ingarabrahamsen

Om

Ingar er en erfaren data engineer og plattformutvikler med omfattende erfaring innen håndtering av komplekse datasystemer. Han har ledet prosjekter som spenner fra migrering av trackingsystemer hos NRK til datavarehusmodernisering og ETL-pipelines som prosesserer store datamengder. Han har spesialkompetanse på å skape robuste dataplattformer som balanserer ytelse med datakvalitet. Han er medgründer og CEO i Datoria, hvor han leder utviklingen av verktøy som bringer software engineering-prinsipper til databehandling. Datoria-plattformen hjelper datateam med å håndtere evolusjon i datastrukturer på en trygg og effektiv måte. Ingar har også bred erfaring med skyteknologier, spesielt GCP og dataplattformsystemer som BigQuery, Kafka og Elasticsearch.

Teknisk ekspertise

  • Programmeringsspråk: Scala, Java, Kotlin, Python, JavaScript, Scala.js
  • Skyteknologier: Google Cloud Platform (GCP), BigQuery, Cloud Functions, Kubernetes, Firebase, CloudRun
  • Dataplattformer & Streaming: Apache Kafka, Kafka Streams, Apache Spark, Apache Beam, Apache Airflow, Snowplow, Google Analytics
  • Databaser & Søk: ElasticSearch, PostgreSQL, Oracle, MongoDB, Firebase, SQL
  • Web & Frontend: React, Play Framework, Spring, Jersey, REST, Looker
  • DevOps & Monitorering: CI/CD, Prometheus, Grafana, Jenkins, Docker, Git, GitHub Actions

Arbeidserfaring

Datoria – Dataplattform og utviklerverktøy

CEO / Gründer og utvikler | 2024 - nå

Som medgründer og CEO i Datoria leder jeg utviklingen av en plattform som bringer software engineering-prinsipper til data engineers. Vi har videreutviklet open-source komponenter fra NRK-prosjektet og skapt en løsning på Google Cloud som gir innsikt i dataflyt og sikrer tryggere endringer. Vår plattform hjelper datateam å jobbe mer effektivt ved å redusere vedlikeholdskostnader og frigjøre dataingeniører fra feilsøking til strategisk innovasjon. Vi fokuserer på datakontrakter, partisjonering og automatisk deteksjon av endringer i datastrukturer for å gi datateam mulighet til å jobbe med presisjon og tillit, selv når kompleksiteten øker.

**Teknologier:** Scala, GCP, BigQuery, Kubernetes, CI/CD, Data Lineage, Schema Evolution, Data Contracts, ETL/ELT

NRK – Anbefaling

Systemutvikler / data engineer | 2022 - 2024

Jeg jobbet med migreringen fra Google Analytics til Snowplow for NRKs anbefalingsplattform. Selv om et annet team hadde hovedansvaret for selve onboardingen av Snowplow, var anbefalingsteamet en sentral forbruker av denne dataen. Vi var med på kravspesifisering og modellering for å sikre at migreringen ville dekke våre behov. Prosjektet innebar en omskriving av systemarkitekturen med utvikling av en løsning for parallell prosessering av data fra både gamle og nye kilder under overgangsfasen. Arbeidet involverte koordinering med flere team og implementering på tvers av alle klientplattformer (Android, iOS, smart-TV, web) i løpet av 6 måneder. Jeg forbedret pipeline-arkitekturen ved å erstatte tunge Spark-jobber med mer målrettede BigQuery-prosesser og implementerte CI/CD med GitHub Actions. Jeg var også med på å utvikle NRKs første kontekstuelle bandit-modell for personaliserte anbefalinger.

**Teknologier:** Scala, Snowplow, Google Analytics, BigQuery, GCP, Kubernetes, CI/CD (GitHub Actions), Prometheus, Grafana, Machine Learning, Kontekstuelle bandit-algoritmer

FINN.no – Smidig bilhandel

Senior Software Engineer | 2021 - 2022

I FINN.no jobbet jeg som backend-utvikler på plattformen Smidig bilhandel, en løsning for kjøp og salg av bruktbiler mellom privatpersoner. Jeg forbedret arkitekturen for å gjøre integrasjonspunktene mot interne og eksterne systemer betydelig mer robuste, og redesignet domenemodellen for bedre håndtering av komplekse forretningsregler. Jeg implementerte omfattende overvåking med Prometheus og Grafana som ga oss sanntidsvisninger av systemets helse og ytelse. Dette gjorde det lettere å identifisere og løse problemer før de påvirket brukere. Jeg hadde også hovedansvaret for integrasjonen mot Vipps, som var en strategisk viktig betalingsløsning. Dette prosjektet var med på å øke beløpsgrensen til Vipps opp til 100 000 NOK, noe som gjorde det mulig å dekke et større segment av bruktbilmarkedet.

**Teknologier:** Kotlin, Java, Arrow, Grafana, Prometheus, Kubernetes, Unleash, Vipps, Kafka, Git, IntelliJ IDEA

Tapad – Tapad

Senior Software Engineer | 2018 - 2021

Ved Tapad jobbet jeg med utvikling av plattformer som gjorde det mulig for kunder å integrere sine data med Tapads device graph. Jeg hadde en sentral rolle i onboarding av Looker i organisasjonen, som inkluderte oppsett av BigQuery-tabeller i LookML og opplæring av team i bruk av verktøyet og beste praksis – fra enklere ad-hoc analyser til utvikling av komplekse rapporter. Jeg utviklet ETL-applikasjoner med Apache Spark og Apache Beam for prosessering av store datamengder, og bygget monitoreringsløsninger med Prometheus og Grafana. En av de største utfordringene var cloud-kostnader, og vi jobbet kontinuerlig med å optimalisere plattformen for å holde kostnadene under kontroll. For å effektivisere DevOps-prosessene implementerte jeg selvbetjent infrastruktur på Google Cloud med Kubernetes, Airflow og CloudSQL. Jeg utviklet også plugins og operators til Airflow for å forenkle orkestreringen av komplekse datapipelines.

**Teknologier:** Google Cloud Platform, BigQuery, Apache Spark, Apache Beam, Apache Airflow, Kubernetes, Python, Scala, Prometheus, Grafana, Looker, DevOps, CI/CD, ETL

Eika – Sparing

Full-stack utvikler | 2018 - 2018

Hos Eika jobbet jeg med utviklingen av en sparingsplattform som veilet brukere til å sette opp og følge sparemål. Jeg fokuserte på datamodellering og backend-integrasjoner for håndtering av finansiell data. Jeg implementerte tjenester for sikker datahåndtering og overføring mellom frontend-applikasjonen og Eikas bankinfrastruktur. Jeg utviklet også datapipelines for oppdatering av kontodata og transaksjonsinformasjon i sanntid. Løsningen involverte håndtering av sensitive personopplysninger og finansdata med høye krav til sikkerhet og datakvalitet. Plattformen ble implementert som en mobilvennlig web-portal, som også ble integrert i sparebankenes mobilapplikasjoner.

**Teknologier:** Java, Spring, REST, React.js, Docker, Kubernetes, Git, CSS3, HTML5

Cicero – Modernisering av datavarehus

Utvikler / Arkitekt | 2017 - 2018

Jeg ledet designet og utviklingen av moderniseringen av Ciceros datavarehus, hvor vi erstattet et Oracle-system med en event-drevet arkitektur basert på Apache Kafka. Jeg utformet en løsning som reduserte lisenskostnadene og samtidig forbedret dataoppdateringsfrekvensen fra daglig batchkjøring til nær sanntid. Den nye arkitekturen fanget hendelser direkte fra kildesystemene, prosesserte dem gjennom Kafka Streams-applikasjoner, og gjorde dataene tilgjengelige for analyse med betydelig redusert latens. Jeg implementerte også datakvalitetskontroller for å redusere feilraten. Systemet ble utviklet i Scala og kjørte på Kubernetes, noe som ga høy tilgjengelighet og forenklet skalering ved økende datavolum.

**Teknologier:** Scala, Kafka, Kafka Streams, Event Sourcing, Kubernetes, Docker, Play Framework, Data Warehousing, ETL, Real-time analytics

MUSIT – MUSARK - Musit Ny Arkitektur

Full-stack utvikler | 2017 - 2017

I MUSIT-prosjektet jobbet jeg med moderniseringen av Universitetsmuseenes samlingsforvaltningssystem, med fokus på søkefunksjonalitet og dataintegritet. Jeg designet og implementerte en ElasticSearch-basert søkeløsning som forbedret responstiden på komplekse spørringer fra flere minutter til sekunder, noe som drastisk forbedret brukeropplevelsen for forskere og kuratorer. Dette var en CRUD-applikasjon der registrering av gjenstander og prøver ble gjort via skjemaer i en web-app. Jeg implementerte også inkrementell synkronisering mellom ulike datakilder som reduserte belastningen på primærdatabasen og muliggjorde kontinuerlig oppdatering av søkeindeksen. Arbeidet inkluderte utvikling av domenespesifikke datamodeller for museumsobjekter og bidrag til en React-basert frontend som ga brukerne enklere tilgang til de nye søkefunksjonene.

**Teknologier:** Scala, ElasticSearch, Oracle, React, Play Framework, Domain-Driven Design, Data Migration, RESTful APIs, Microservices, Git

KLP – Forvaltning

Full-stack utvikler | 2016 - 2017

I KLP jobbet jeg med forvaltning og utvikling av web-plattformen for bedrifts- og personkunder, med fokus på dataintegrasjoner mot interne fagsystemer. Jeg var sentral i migreringen fra Dojo til ReactJS, hvor jeg utviklet datamodeller og integrasjonsløsninger som sikret konsistent informasjonsflyt. En viktig del av arbeidet var implementasjon av universell utforming og datavisualiseringer som gjorde kompleks finansiell informasjon mer tilgjengelig for sluttbrukere. Jeg hadde også en sentral rolle i overgangen fra SVN til Git, hvor jeg utviklet rutiner for kodeversjonering, branching-strategier og migrering av historikk, som forbedret datahåndteringen i utviklingsprosessen.

**Teknologier:** Java, JavaScript, React, Spring, Jersey, REST, Git, MongoDB, JUnit, Maven, SQL

KLP – Dokumentdistribusjon

Team- / tech lead | 2015 - 2016

Som tech lead for KLPs dokumentdistribusjonsprosjekt ledet jeg utviklingen av integrasjonen mot E-Boks for elektronisk dokumentdistribusjon. Jeg deltok i planleggingsfasen med kravspesifikasjon og teknologivalg, og koordinerte arbeidet mellom interne og eksterne parter. Jeg var ansvarlig for datastrømmene mellom KLPs systemer, E-Boks og Difi (for håndtering av reservasjoner mot elektronisk kommunikasjon), og utviklet datamodeller og valideringsrutiner for å sikre korrekt informasjonsoverføring. Prosjektet innebar komplekse dataintegrasjoner og sikker håndtering av sensitiv kundeinformasjon. Løsningen reduserte KLPs behov for papirbasert kommunikasjon og forbedret dataflyt mellom systemene.

**Teknologier:** Java, Spring, REST, Jersey, Git, Jenkins, Maven, Oracle RDB, Continuous Integration

Cicero – Cicero Advisor

Full-stack utvikler | 2015 - 2015

I Cicero Advisor-prosjektet jobbet jeg med utvikling av en plattform for finansiell rådgivning med omfattende datahåndtering. Jeg utviklet datamodeller og strukturer for å håndtere komplekse finansielle data og kundeprofiler. Jeg implementerte dataflyt-arkitekturen som støttet rådgivningsprosessen mellom rådgivere og sluttbrukere, med fokus på sikker datalagring og håndtering av personvernrelatert informasjon. Jeg designet også datapipelines for integrering med eksterne systemer for kredittgivning og investeringsanbefalinger, og utviklet valideringssystemer for å sikre datakvalitet og konsistens. Løsningen inkluderte automatisert datainnhenting og -prosessering for egenhetsvurderinger og hensiktsmessighetstester som måtte utføres i forbindelse med finansiell rådgivning.

**Teknologier:** Java, Spring, React, Flux, PostgreSQL, Oracle RDB, REST, Maven, JUnit, Git

Skatteetaten – MAG og EDAG

Full-stack utvikler | 2012 - 2015

Jeg utviklet et system for validering og prosessering av a-meldinger for Skatteetaten, som del av et samarbeidsprosjekt mellom Skatteetaten, NAV, SSB og Brønnøysundregistrene. A-meldinger inneholder all informasjon som blant annet kommer fra lønnsslipper - noe som de fleste kan relatere til. Jeg implementerte en distribuert, minnebasert arkitektur som effektivt håndterte validering og prosessering av a-meldinger fra arbeidsgivere i Norge. Jeg automatiserte byggerutiner med Jenkins og utviklet Maven-plugins for å forenkle bygg, release og deploy til ulike miljøer. For å identifisere og løse ytelsesutfordringer designet jeg en ElasticSearch-basert monitoreringsapplikasjon som ga verdifull innsikt i dataflyt og systembelastning. Jeg jobbet tett med fagpersoner fra Skatteetaten, NAV og SSB for å implementere komplekse forretningsregler korrekt. Prosjektet var sentralt for å forenkle arbeidsgiveres rapporteringsplikt og la grunnlaget for bedre tjenester fra det offentlige.

**Teknologier:** Java, ElasticSearch, Spring, REST, Jenkins, Maven, Oracle, WebSphere, Microservices, JUnit, Hazelcast, Monitoring, CI/CD

NAV – Arena

Utvikler | 2011 - 2012

Som utvikler i NAVs Arena-prosjekt jobbet jeg med å modernisere og effektivisere dataflyt i et saksbehandlingssystem som brukes av saksbehandlere daglig. Jeg utviklet og implementerte en ny løsning for håndtering av filer inn og ut av Arena, som automatiserte dataoverføringen. Jeg arbeidet med migrering til ny teknisk plattform, hvor jeg re-implementerte integrasjonskomponenter og porterte grensesnitt til Webservices og WebSphere MQ. Dette forbedret datautvekslingen mellom Arena og andre NAV-systemer. Som teknisk ansvarlig for testmiljøer sikret jeg tilgjengelighet ved å utvikle verktøy for miljøoppsett og datamigrering.

**Teknologier:** Java, Spring, Oracle RDB, PL/SQL, WebSphere MQ, JUnit, Mockito, Continuous Integration, Oracle Weblogic, SVN, XML, ETL/ELT, Datamigrering

Cisco/Tandberg – T1 og T3 Telepesence

Konsulent | 2009 - 2011

Hos Cisco/Tandberg begynte jeg som tester ved siden av studiene, og fortsatte som utvikler etter endt utdannelse. Jeg jobbet med databehandling og analyse for telepresence-systemene, hvor jeg utviklet automatiserte testverktøy i Python. Jeg bidro i proof-of-concepts der jeg porterte dataintegrasjonslag fra Java Swing til Android, som utvidet plattformstøtten for kommunikasjonsløsningene. Jeg skrev også bacheloroppgaven min for Cisco/Tandberg, der vi brukte ansiktsgjenkjenning for å identifisere deltakere i videomøter. I dette prosjektet anvendte vi maskinlæring og eigenfaces-algoritmer for å prototype løsningen, som ble implementert i Python. Dette arbeidet ga meg verdifull erfaring med både dataanalyse og maskinlæring i en praktisk kontekst.

**Teknologier:** Java, Android, Python, SQL, Linux, Maven, TDD, Data analysis, Automatisert testing, Datamodellering, Machine Learning

Bris studio – Brisstudio.no

Arkitekt og fullstack-utvikler | 2016 - nå

Jeg har utviklet hjemmesiden til Bris studio som et sideprojekt for å teste nye data- og webutviklingsteknologier. Jeg har implementert et system med frontend bygget med Scala.js og React, mens backend bruker Firebase og Google Cloud Functions. Prosjektet har fungert som et laboratorium for å utforske moderne data-arkitekturer og serverless-konsepter som senere er blitt anvendt i større kommersielle prosjekter. Jeg har satt opp CI/CD-pipeline og data analytics med Google Analytics for å teste ulike designtilnærminger. Prosjektet har vært nyttig for å utforske kostnadseffektive måter å håndtere datalagring og prosessering på Google Cloud med teknologier som CloudRun, Cloud Functions, Firebase og Kubernetes.

**Teknologier:** Scala.js, React, Firebase, Google Cloud Functions, Google Analytics, Google Cloud Platform, Kubernetes, Play Framework, PostgreSQL, CloudRun, CI/CD

Utdannelse

Høgskolen i Oslo

Bachelor i elektroingeniør | 2006 - 2010

Fordypning i kommunikasjonssystemer. Bacheloroppgave for Tandberg/Cisco med brukeridentifikasjon i teleprecence rom systemer.

Sertifiseringer og kurs

  • Principles of Reactive Programming, Coursera, 2014
  • M101: MongoDB for Developers, MongoDB University, 2013
  • Sun Certified Java Programmer (SCJP), Oracle/Sun, 2010

Foredrag- og kurserfaring

  • 2019: Lets fix your Scala with Scalafix (Presentation)
  • 2014: Elasticsearch – An operations development war story (Presentation) at Oracle User Group Norway (OUGN)

Faglig engasjement og kunnskapsdeling

  • Flatmap programkomite: Medlem av programkomiteen for Flatmap-konferansen (2019-2020)
  • Styremedlem i JavaBin: Styremedlem i Norges Java-brukergruppe (2015-2017)

Språk

  • Norsk: Morsmål
  • Engelsk: Flytende muntlig og skriftlig
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment