Mijn 5 take-aways over DeepSeek
21.000+ lezers blijven up-to-date over artificial intelligence door 'Trending in Tech' te lezen.
Een nieuwe editie van Trending in Tech. Dé Nederlandse nieuwsbrief over de impact van artificial intelligence op mens, werk, bedrijf en samenleving. 21K+ abonnees inmiddels!
DeepSeek! Het ging de afgelopen week in de technologiewereld en ver daarbuiten over bijna niks anders. In deze nieuwsbrief leg ik niet alleen uit wat het is en wat er is gebeurd, maar geef ik je ook mijn persoonlijke duiding aan de hand van 5 take-aways.
PS, gisteravond was ik te zien op Nieuwsuur. (start 28 minuten). Mede omdat de tijd daar beperkt was, deze nieuwsbrief met mijn 5 insights.
met hartelijke groet, Jarno
Doorsturen aan een vriend of collega? Graag.
Ik zou graag met je connecten op Linkedin.
Ik heb inmiddels met veel plezier vele honderden, hoog beoordeelde, presentaties gegeven over AI. Meer weten? Check hier.
Wat is er aan de hand?
DeepSeek, een Chinees bedrijf, heeft enkele dagen geleden een groot taalmodel gelanceerd: R1. Dit model kan redeneren en presteert vergelijkbaar met Amerikaanse concurrenten zoals OpenAI o1.
Het opmerkelijke is dat R1 tot stand is gekomen met aanzienlijk beperktere middelen: minder geavanceerde hardware (vanwege Amerikaanse handelsbeperkingen op chips) en een bescheiden budget van 6 miljoen dollar, tegenover de honderden miljoenen die Amerikaanse bedrijven hebben geïnvesteerd in hun taalmodellen.
Opschudding
Deze ontwikkeling zorgt voor grote opschudding. Al onze aannames over taalmodellen, verdienmodellen en noodzakelijke investeringen werden op hun kop gezet.
Het feit dat er met beperktere computerchips en een fractie van het gebruikelijke budget toch een hoogwaardig taalmodel kan worden ontwikkeld, tart de algemene overtuiging dat hele goede AI-systemen per definitie om kostbare hardware vragen.
En dát gegeven heeft vervolgens weer impact gehad op de beurs, waarbij chipmakers en technologiebedrijven er flink van langs kregen. Chipmaker NVIDIA verloor 589 miljard dollar beurswaarde in één dag (17% koersdaling). Andere tech-bedrijven kregen ook rake klappen.
Open source en populair
Wat daarbij ook meespeelt, is dat DeepSeek R1 volledig open source beschikbaar is. Dus iedereen kan ermee aan de slag. De angst daarbij is dus dat, waar Amerikaanse technologiebedrijven nu nog heel veel geld kunnen vragen voor hun taalmodeltechnologie omdat deze achter gesloten deuren zit, dat verdienmodel afbrokkelt omdat DeepSeek open source voor iedereen beschikbaar is.
DeepSeek staat op heel veel plaatsen, ook in Nederland, in de top van de appstores. Het wordt ongelooflijk vaak gedownload. Ook dat zorgt voor opschudding en stress.
Mijn vijf take-aways:
Er is al heel veel geschreven over dit onderwerp, maar dit zijn wat mij betreft vijf dingen die belangrijk zijn om te weten en die ik niet vaak hoor of lees:
Kritisch en excited
Het is belangrijk om kritisch te blijven over de claim dat DeepSeek slechts zes miljoen heeft gekost. We kennen de details niet precies, en we weten ook niet welke kosten 'voor het gemak' buiten dit bedrag misschien zijn gelaten.
Tegelijkertijd is de scherpe reductie in kosten gewoonweg indrukwekkend. Al heeft het dus geen zes miljoen gekost, maar het dubbele, dan is het nog steeds ongelofelijk knap.
Europa!
Deze nieuwe ontwikkeling biedt een enorme kans voor Europa, aangezien we minder budget hebben voor grote taalmodellen die kunnen concurreren met Amerikaanse software. Als het klopt dat dit met een fractie van het Amerikaanse budget kan, is dat goed nieuws. We gaan dan onze eigen AI-taalmodellen bouwen omdat Europa steeds onafhankelijker moet worden van Amerikaanse software. Europapa!
Overdreven reactie
De daling van de beurskoersen is volgens mij een overdreven reactie. De simpele gedachte is dat je minder goede computerchips nodig hebt om een goede LLM-chatbot te maken en "dat de wereld dus minder computerchips zal kopen".
Maar dat geloof ik niet zo. The AI-game is on.
De technologiesector gaat met geavanceerde chips gewoon nog interessantere, kwalitatief betere, verrassende, cutting-edge toepassingen maken met bestaande materialen. (Even los of de correctie op de beurs in het algemeen een goede ontwikkeling is of niet).
In deze context vergeet men vaak Jevons' paradox. En dat betekent: wanneer iets goedkoper wordt, steken we niet dat geld in onze zak, maar gaan we er veel meer van gebruiken.
Toen autorijden veel goedkoper werd, gingen we meer kilometers maken. Toen bellen goedkoper werd, gingen we langer bellen.
En je zult ook zien dat we meer gaan doen met deze 'goedkope manier' van het trainen van taalmodellen. We gaan gewoon meer en betere AI-toepassingen maken.
Boemerang
Je kunt ook stellen dat het Amerikaanse chipverbod richting China als een boemerang terug is gekomen. Amerika verbood de toegang tot hele geavanceerde computerchips richting China. de USA had verwacht dat China daardoor de achterstand niet zouden kunnen inhalen, maar de beperking heeft China juist creatiever en inventiever gemaakt. Ze hebben het maximale gehaald uit minder kwaliteit computerchips.
DeepSeek heeft een etappe van de Tour de France gewonnen op een gewone fiets, zullen we maar zeggen.
En nu staan Amerikaanse bedrijven onder druk.
China laat daarmee ook zien dat hyperkapitalisme (Alle problemen moet je oplossen met heel veel geld) niet altijd de juiste manier is. En ze laten terloops ook even zien dat wanneer je iets tofs ontwikkelt, dat je dat best open source terug kunt geven aan de wereld. En dat je daar dus niet per se schathemelrijk van hoeft te worden.
Open Source
Zoals Yann LeCun al zei: dit is vooral een overwinning voor open source. DeepSeek is gemaakt op basis van het open source Meta Llama-model en DeepSeek is nu ook open source beschikbaar. Dat betekent dat ieder bedrijf technisch gezien dit model op eigen servers zou kunnen draaien, onafhankelijk van alles en iedereen.
We gaan toe naar een toekomst waarin AI-intelligentie overvloedig, goedkoop en overal aanwezig is.
Al is het belangrijk om de voetnoot te maken dat veel bedrijven enorm vastzitten in hun Microsoft-omgeving. Daardoor overwegen ze niet eens een alternatief, laat staan een Chinees alternatief.
Ten tweede is het goed om te noemen dat je, om open source-technologieën te integreren in je bedrijf, wel deskundigheid nodig hebt.
</end>
Dit zijn zo mijn losse gedachten.
Ongetwijfeld in een volgende nieuwsbrief nog meer ideeën, invalshoeken en bespiegelingen over DeepSeek.
Heb je aanvullingen? Laat van je horen!
Ik lees altijd alles en ben super blij met jullie reacties.
met hartelijke groet, Jarno
Wil je meer weten over deze ontwikkeling? Wil je bij een evenement inspiratie, energie, een gezond kritische blik en je publiek op het puntje van hun stoel? Bekijk dan mijn Presentatie over AI
Wat ik mis in de meeste analyses is de censuur kant van dit soort modellen. Die algoritmes lijken me niet waardenvrij. In hoeverre is dat controleerbaar?
Hi Jarno, even voor de volledigheid en fact-check: DeepSeek is NIET volledig open source. Om volledig open source te zijn, zijn de volgende karakteristieken nodig (schrijft de gerespecteerde en kritische AI-wetenschapper Timnit Gebru op Linkedin:
Friends, for something to be open source, we need to see
1. The data it was trained and evaluated on
2. The code
3. The model architecture
4. The model weights.
DeepSeek only gives 3 and 4. And I'll see the day that anyone gives us #1 without being forced to do so, because all of them are stealing data.
-
https://www.linkedin.com/posts/timnit-gebru-7b3b407_friends-for-something-to-be-open-source-activity-7290232331468967936-6vea
Lees hier meer over de 'officiele definitie van OSAI:
https://www.technologyreview.com/2024/08/22/1097224/we-finally-have-a-definition-for-open-source-ai/