Persbureau Reuters en een AI-startup met de naam Synthesia hebben deze week een deepfake nieuwslezer laten zien. Deze nieuwslezer kan geautomatiseerde nieuwsberichten in realtime genereren.
Het systeem is ontworpen als een proof-of-concept, het systeem neemt real-time score-updates van voetbalwedstrijden en genereert daarmee nieuwsberichten, compleet met foto's en een script. Synthesia en Reuters gebruiken vervolgens Deepfake technologie en vooraf opgenomen beelden van een echte nieuwslezer om het script om te zetten in een "live" video van de lezer met actuele score-updates.
Erg handig, want op deze wijze kun je bijvoorbeeld tien of twintig verschillende "live" video's streamen die tegelijkertijd dezelfde "persoon" laten zien die real-time scoringsupdates voor verschillende sportevenementen vertelt.
Voordeel van deze technologie: schaalbaarheid. Het gaat op veel meer gebieden toegepast worden, denk aan een luchthaven.
Wat natuurlijk een risico is is dat - "De AI-verslaggever zei het" de toekomstige versie van "Ik las het op Facebook" wordt...
Twitter heeft een nieuw beleid aangekondigd voor de aanpak van synthetische en gemanipuleerde media. Ze zeggen:
"U mag geen synthetische of gemanipuleerde media delen die waarschijnlijk schade kunnen veroorzaken. Daarnaast kunnen we Tweets met synthetische en gemanipuleerde media labelen om mensen te helpen hun authenticiteit te begrijpen en context te bieden".
Deze aankondiging van Twitter volgt op het door Facebook zelf aangekondigde mediabeleid. Nu zien hoe het in de praktijk werkt..
Google heeft een nieuwe chatbot uitgebracht, genaamd Meena, die naar eigen zeggen beter is dan alle andere chatbots die er zijn; volgens Google door de complexiteit van de gesprekken die het kan voeren. (Let op: ik zeg hier 'volgens Google').
Meena werd getraind op maar liefst 341 gigabyte aan publieke sociale-mediapraatjes, Dat is 8,5 keer zoveel data als het GPT-2 systeem van OpenAI. Veel! Google zegt dat Meena over vrijwel alles kan praten en zelfs (slechte) grappen kan maken.
Ik had het graag willen testen, maar dat kan niet. Google zegt dat het geen publieke demo zal vrijgeven totdat het het model heeft doorgelicht op veiligheid en vooroordelen, wat waarschijnlijk een goede zaak is. Immers: toen Microsoft in 2016 zijn chatbot Tay op Twitter losliet, begon het al binnen enkele uren met racistische, vrouwonvriendelijke scheldwoorden. Daar heeft Google van geleerd denk ik....
Op basis van vragen op Twitter geef ik tóch nog even een uitleg van een nieuwe app met gezichtsherkenningstechnologie: clearview.
Met deze app kun je een foto maken (uploaden) van iedereen en deze app vertelt je dan wie het is en geeft de sociale media profielen waar deze foto’s gevonden zijn.
Het bedrijf heeft een database van maar liefst 3 miljard foto’s! In perspectief: de FBI heeft een database van iets meer dan 400 miljoen foto’s.
De applicatie is beschikbaar voor Amerikaanse opsporingsdiensten en wordt daar ook gebruikt. Het risico is natuurlijk: vals positieven. Dat de applicatie onnauwkeurig is en zegt dat jij iemand bent terwijl je dat niet bent. Ik heb bijvoorbeeld een eeneiige tweelingbroer: waarschijnlijk herkent de app niet het verschil. Het risico is dat we te veel gaan vertrouwen op de kwaliteit van deze algoritmes.
En stel dat deze app 'uitlekt' of wordt gepubliceerd naar het grote publiek? Hoe zit het dan met beroepen waar anonimiteit juist heel belangrijk is, zoals verpleegkundigen of politieagent?
Of: Stel, je bent in de rosse buurt en iemand maakt een foto van jou en kan je zo afpersen? Of je wordt willekeurig op straat staande gehouden, je foto wordt gemaakt en vervolgens word je afgeperst om drugs te transporteren, ik noem maar iets. Of ik zie een leuke dame in de trein, maak haar foto en kan haar vervolgens gaan stalken. Genoeg om over na te denken. The Dark Side Of AI.
Deze kunstenaar liet in zijn Google Maps project een prachtige bevinding zien: de digitale wereld is zeker niet altijd een weerspiegeling van de fysieke wereld. Door met 99 smartphones in een straat te gaan staan, gaf Google Maps aan dat de weg geblokkeerd was. Dit was echter niet zo. Het waren de 99 smartphones. Dit geeft helder aan: wat je op je smartphone ziet, gebeurt zeker niet altijd in de werkelijkheid.
Steven van Belleghem is een bekende internationale spreker. Van Belleghem is een grote speler binnen de transformerende markt van klantrelaties en de toekomst van marketing. Steven is ook auteur van verschillende boeken, waaronder: ‘When digital becomes human’; ‘customers the day after tomorrow’; ‘The conversation company’. Hij is mijn eerste gast in mijn LTTF podcast.
Een goede spreker boeken of een goede presentatie geven; daar komt heel wat bij kijken. Ik werk bijna tien jaar als professioneel spreker. Ik heb daarom de afgelopen jaren veel inzichten opgedaan. Deze heb ik samengebracht tot 20 tips en adviezen die ik in drie onderdelen met je deel. In dit artikel vind je:
Tijd om stil te staan bij de nadelen van kunstmatig intelligente systemen. Op deze avond geef ik zelf een lezing over het thema en interview ik Anders Sandberg. Hij is een onderzoeker, wetenschapsdebater, futurist, transhumanist en auteur. Hij heeft een Ph.D. in computationele neurowetenschappen van de Universiteit van Stockholm, en is momenteel een James Martin Research Fellow aan het Future of Humanity Institute aan de Universiteit van Oxford.
Ik geef graag lezingen over tech-trends en over de impact van nieuwe technologie op mens, werk en samenleving. Voel je vrij om contact met me te leggen! info@jarnoduursma.nl 0616074953
Disclaimer: De inhoud is uitsluitend bedoeld voor informatieve doeleinden en mag niet worden opgevat als juridisch, zakelijk, fiscaal of beleggingsadvies. Het is geen aanbod, suggestie of verzoek om een investering te doen. In het bijzonder is de inhoud niet gericht op een belegger of potentiële belegger en mag niet worden gebruikt om een belegging te evalueren of te doen.