Nyheter

Googles AI vill att alla skall sjunga för den

Vem blir familjens vinnare i LipSync?

Tidi­gare i veck­an skrev jag om Googles pro­jekt med att var­na för jord­bävningar. Men de har även andra pro­jekt.

Google LipSync

Flera där ute brukar säk­ert sjun­ga hellre än bra när favorit låten drar igång. Vis­sa kanske nöjer sig med att mina. Googles senaste AI exper­i­ment hand­lar om just det­ta. De vill nu ha dina läp­par för att lära AI hur man for­mar munnen för oli­ka ord.

Vad ska man göra?

Google kom­mer bedöm­ma Lip­sync (mim) insat­sen och ge poäng. Tyvärr är musikut­budet extremt begrän­sat då de bara finns en låt. Fak­tiskt så är det inte ens det utan bara ett sty­cke av “Dance Mon­key” av Tones and I. Lip­Sync spelar inte in ljud utan bara hur bra du lyck­ats med ditt Lip­Sync.

Varför?

Lip­Sync pro­jek­tet hand­lar om att lära en AI hur män­nisko­rs ansik­ten rör sig när vi pratar. Det enda som behövs är en kam­era, vilket i stort sett finns på mobil­tele­fon­er. Men för att få bäs­ta resul­tat så bör en van­lig dator använ­das.

Men var­för behöver vi bry oss om deras lil­la pro­jekt? För gemene man där ute kanske det­ta bara är en kul grej. Det­ta pro­jekt är för de per­son­er som har oli­ka språk­li­ga ned­sät­tningar, allt­så de per­son­er som har en hörselned­sät­tning men även andra sorters sjuk­do­mar eller ned­sät­tningar. Det kan göra deras liv bät­tre!

Käl­la: Google, Lip­Sync by YouTube

Kommentarer