CuttingEdgeAI: Å snakke med maskiner – fremtiden med tale-til-tekst
Dette arrangementet vil utforske den fascinerende teknologien som omformer talte språk til skriftlig tekst, kjent som tale-til-tekst eller automatisk talegjenkjenning (ASR). Enten det er for å lage transkripsjoner, assistere stemmeassistenter, eller forbedre tilgjengelighet, spiller tale-til-tekst-teknologi en nøkkelrolle i hvordan vi samhandler med maskiner og behandler informasjon.
I løpet av dette seminaret vil du få høre om de nåværende fremskrittene og utfordringene innen tale-til-tekst-teknologi, med eksempler fra praktisk bruk innenfor felt som kundeservice, helsevesen og media. Industriledere og forskere innen feltet vil dele av sine erfaringer, og diskutere hvordan denne teknologien kan utvikle seg og anvendes i fremtiden.
Et spesielt fokus vil være på den norske Whisper-modellen, trent av Nasjonalbiblioteket. Denne modellen er spesielt tilpasset det norske språket og tilbyr forbedret nøyaktighet i transkripsjoner og stemmegjenkjenning for norske brukere. Dette er et viktig skritt fremover i arbeidet for å gjøre tale-til-tekst-teknologi mer inkluderende og effektiv for mindre språk, og sikre at språklige og kulturelle nyanser blir ivaretatt.
Hva du kan forvente:
- Keynote-presentasjon: Introduksjon til tale-til-tekst-teknologi, med fokus på den norske Whisper-modellen og dens unike bidrag til lokal språkbehandling.
- Praktisk demonstrasjon: Live-demonstrasjon av den norske Whisper-modellen i praksis, med eksempler fra bransjer som helsevesen, media og kundeservice.
Meld deg på denne utgaven av CuttingEdgeAI for å lære mer om hvordan tale-til-tekst former vår digitale fremtid og åpner nye muligheter for kommunikasjon og tilgjengelighet!
Program
Tid | Tittel | Foredragsholder |
---|---|---|
12:00-12:05 | Velkomst og Introduksjon | Klas Pettersen |
12:05-12:50 | Hovedtale 1 | Per Egil Kommervold |
12:50-13:05 | Åpne utfordringer innen automatisk talegjenkjenning | Torbjørn Karl Svendsen |
13:05-13:20 | Forskning på taleteknologi | Giampiero Salvi |
13:20-13:35 | Klassifisering av norske dialekter av mennesker og maskin | Phoebe Parsons |
13:35-13:50 | Semantisk meningsfulle metrikker for norske ASR-systemer | Janine Lizbeth Cabrera Rugayan |
13:50-14:05 | Pause | |
14:05-14:30 | Whisper@uio | Dagfinn Bergsager |
14:30-14:50 | Slik jobber vi med transkribering og talergjenkjenning i NRK | Henrik Lied |
14:50-15:05 | Noteless | Noteless |
15:05-15:10 | Pause | |
Technical Deep Dive | ||
15:10-15:15 | LLM-er for reduksjon av WER (Word Error Rate) | Sachin Gaur |
15:15-15:30 | Tutorial 1 | Sushant Gautam |
15:30-16:00 | Tutorial 2 | TBA |
Vennligst merk at programmet kan bli gjenstand for mindre endringer. Hvis du har spørsmål, vennligst ta kontakt med Kushtrim Visoka.
Dette arrangementet er delvis finansiert av EUs DIGITAL EUROPE-program, under tilskuddsavtale nr. 101083966, og Norwegian AI Cloud-prosjektet, finansiert av Forskningsrådet under tilskuddsavtale nr. 322336.
- 29. november 2024
- 12:00 – 16:00
- Domus Bibliotheca