Hoe een computer omschrijft wat hij op de Amsterdamse straten ziet

25/11
2015
Deze programmeur loopt op straat met z'n laptop en laat software de omgeving omschrijven. Werkt best goed!

Computers kunnen steeds beter afbeeldingen herkennen. Machines kunnen zelfs patronen leren waarmee ze ook objecten die ze nooit eerder gezien hebben kunnen plaatsen. Zelfs complete situaties kunnen op die manier door het linken van woorden en objecten worden beschreven.
Zelflerende software gebruikt vaak kunstmatige neurale netwerken om dit soort complexe taken sneller uit te voeren.

Met webcam door Amsterdam

Kunstenaar en programmeur Kyle McDonald nam zulke 'neurale' software, gemaakt door de Stanford-universiteit en Google, mee de straat op in Amsterdam. De webcam in zijn laptop filmde de wandeling door de stad, terwijl de computer de beelden in real time probeert om te zetten in een omschrijving in tekst. De resultaten zijn nogal wisselend, maar het werkt over het algemeen vrij goed.

McDonald gebruikte voor het filmpje het open-source programma genaamd NeuralTalk, dat beschikbaar is via GitHub. Ook andere bedrijven zijn bezig met het ontwikkelen en verbeteren van 'neurale netwerken'. Zo kan Facebook inmiddels foto's beschrijven via zo'n programma. Dat kan er uiteindelijk toe leiden dat blinden kunnen 'zien' wat anderen zien.

bekijk op Vimeo

Lees ook:

Met deze app kunnen slechtzienden een bioscoopfilm kijken

Deze bril laat blinden zien 'zien' met geluiden

Datum: woensdag 25 november 2015, 15:02
Bron: Bright
Categorie: Wetenschap
Tags: Amsterdam, Leiden, Noord-Holland, Zuid-Holland

Gerelateerde berichten:

Reacties:

Er zijn nog geen reacties op dit bericht.


Website by Web Chemistry