Hvordan oppsto begrepet?

Den nøyaktige opprinnelsen til begrepet "dyp læring" er uklart, men det tilskrives generelt flere kilder. Her er noen mulige opprinnelser:

1. Geoffrey Hintons papir fra 2006 :I 2006 publiserte dataforsker Geoffrey Hinton en seminaloppgave med tittelen "Deep Learning:A Tutorial on Deep Neural Networks" in Nature Magazine. Denne artikkelen regnes som et landemerke innen kunstige nevrale nettverk og bidro til å popularisere begrepet "dyp læring." Hinton og hans kolleger ved University of Toronto blir sett på som pionerer i utviklingen av dype læringsteknikker.

2. Yoshua Bengios bruk av begrepet :Yoshua Bengio, en annen fremtredende forsker på feltet, spilte også en betydelig rolle i populariseringen av begrepet "dyp læring" på begynnelsen av 2000 -tallet. Bengio og hans kolleger ved Université de Montréal foretok banebrytende forskning på dype læringsalgoritmer, og han brukte ofte begrepet "dyp læring" i sine forskningspublikasjoner.

3. påvirkning av kognitiv psykologi :Noen mener at inspirasjonen til begrepet "dyp læring" kan ha kommet fra forestillingen om "dyp struktur" i kognitiv psykologi. Dyp struktur er et begrep som brukes i lingvistikk og kognitiv psykologi for å beskrive den underliggende representasjonen eller syntaksen til et språk som går utover overflatenivåets trekk ved ord og uttrykk. Dette konseptet kan ha påvirket forståelsen av dype læringsmodeller som å fange underliggende mønstre og komplekse forhold i data.

4. Sammenligning med tradisjonell maskinlæring :Begrepet "dyp læring" ble sannsynligvis myntet for å skille det fra tradisjonelle maskinlæringsmetoder. Mens tradisjonelle maskinlæringsalgoritmer ofte er avhengige av grunne nevrale nettverk eller grunne representasjoner av data, involverer dyp læring bruk av dype nevrale nettverk med flere skjulte lag. Disse dype arkitekturene gir mulighet for mer komplekse og hierarkiske trekkekstraksjoner, slik at modeller kan lære seg representasjoner av data på høyere nivå.

5. Historisk kontekst :I de første dagene av nevrale nettverksforskning var grunne nevrale nettverk normen, og de møtte begrensninger i sine representasjonsevner og evne til å håndtere komplekse problemer. Fremveksten av kraftige databehandlingsressurser, for eksempel grafiske prosesseringsenheter (GPUer), på slutten av 2000 -tallet gjorde det mulig å trene dypere nevrale nettverk effektivt. Denne historiske konteksten bidro til behovet for et begrep som fanget fremskritt og økt kompleksitet av disse nye tilnærmingene, derav begrepet "dyp læring" fikk trekkraft.

Det er sannsynligvis en kombinasjon av disse faktorene, sammen med konvergensen av forskningsinnsats og gjennombrudd, som førte til den utbredte adopsjonen av begrepet "dyp læring" for å beskrive underfeltet innen maskinlæring fokusert på dype nevrale nettverk.