Përdoruesi:AlborinaM/Mësimi i thellë(Deep learning)
Mësimi i thellë (ang. Deep Learning) është një nëngrup i mësimit të makinerive që fokusohet në përdorimin e rrjeteve nervore për të kryer detyra të tilla si klasifikimi, regresioni dhe mësimi i përfaqësimit. Fusha merr frymëzim nga neuroshkenca biologjike dhe përqendrohet rreth grumbullimit të neuroneve artificiale në shtresa dhe "trajnimit" të tyre për të përpunuar të dhënat. Mbiemri "thellë" i referohet arkitekturës së rrjetit, e cila përfshin përdorimin e shtresave të shumta, që variojnë nga tre deri në disa qindra apo mijëra shtresa. Metodat e mësimit të aplikuarë mund të jenë të mbikëqyrura, gjysmë të mbikëqyrura ose të pambikëqyrura, në varësi të natyrës së detyrës dhe të dhënave në dispozicion.[2]
Disa struktura të zakonshme të rrjeteve në mësimin e thellë përfshijnë rrjete plotësisht të lidhura, rrjete të besimi të thellë, rrjete nervore periodike, rrjete nervore konvolucionale, rrjete kundërshtare gjeneruese, transformatorë dhe fusha nervore të rrezatimit, të cilat përfaqësojnë arkitektura të ndryshme të rrjeteve nervore me aplikime specifike dhe të fuqishme në të mësuarit e makinerive. Këto arkitektura janë aplikuar në fusha duke përfshirë vizionin kompjuterik, njohjen e të folurit, përpunimin e gjuhës natyrore, përkthimin me makinë, bioinformatikën, dizajnin e ilaçeve, analizën e imazheve mjekësore, shkencën e klimës, Metodat e të mësuarit të thellë janë aplikuar në inspektimin e materialeve dhe në programet e lojërave me tabela, ku ato kanë arritur rezultate ku në disa raste tejkalojnë, performancën e ekspertëve njerëzorë.[3][4][5]
Format e hershme të rrjeteve nervore ishin të frymëzuara nga mënyra se si sistemi biologjik, veçanërisht truri i njeriut, përpunon informacionin dhe organizon nyjet e komunikimit. Megjithatë, rrjetet nervore moderne nuk kanë për qëllim të imitojnë funksionimin e trurit të organizmave dhe shpesh konsiderohen modele me saktësi të kufizuar për këtë qëllim.[6]
Vështrim i përgjithshëm
RedaktoShumica e modeleve moderne të të mësuarit të thellë janë të ndërtuara mbi rrjete nervore me shumë shtresa, si rrjetet nervore konvolucionale dhe transformatorët. Përveç tyre, ato mund të përfshijnë formula propozuese ose variabla latente të organizuara sipas shtresave në modelet gjeneruese të thella, si nyjet në rrjetet e besimit të thellë dhe arkitektura të ngjashme si makina Boltzman[7]
Në thelb, mësimi i thellë i referohet një klase të algoritmeve të mësimit të makinerive në të cilat përdoret një hierarki shtresash për të transformuar të dhënat hyrëse në një paraqitje pak më abstrakte dhe të përbërë. Për shembull, në një model të njohjes së imazhit, hyrja e papërpunuar mund të jetë një imazh (i përfaqësuar si një tensor pikselësh ). Shtresa e parë përfaqësuese në një rrjet nervor mund të identifikojë forma bazë, si vijat dhe rrathët. Shtresa e dytë mund të përpunojë dhe kodojë kombinime më komplekse të skajeve, ndërsa shtresa e tretë mund të përqendrohet në njohjen e tipareve specifike, si hunda dhe sytë. Më në fund, shtresa e katërt mund të interpretojë këto të dhëna për të përcaktuar se imazhi përmban një fytyrë.
Një aspekt i rëndësishëm i të mësuarit të thellë është aftësia për të përcaktuar në mënyrë optimale se cilat veçori duhen përzgjedhur në secilin nivel të modelit. Para zhvillimit të metodave të të mësuarit të thellë, teknikat tradicionale të mësimit të makinerive kërkonin krijimin manual të veçorive për të transformuar të dhënat në një format të përshtatshëm për algoritmet klasifikuese. Në të kundërt, qasja e të mësuarit të thellë zbulon automatikisht paraqitjet më të dobishme të veçorive direkt nga të dhënat, pa pasur nevojë për ndërhyrje manuale. Megjithatë, kjo qasje nuk eliminon plotësisht nevojën për akordim manual; për shembull, përcaktimi i numrit dhe madhësive të shtresave mund të ndikojë në nivelin e abstraksionit të arritur nga modeli.[8][2]
Termi "thellë" në "të mësuarit e thellë" i referohet numrit të shtresave që të dhënat kalojnë gjatë transformimit të tyre. Në mënyrë specifike, sistemet e të mësuarit të thellë karakterizohen nga një thellësi e madhe e rrugës së caktimit të kredisë (CAP), që përfaqëson zinxhirin e transformimeve midis hyrjes dhe daljes. CAP-të përshkruajnë lidhjet e mundshme që lidhin inputin me outputin. Për rrjetet nervore të tipit përpara, thellësia e CAP-ve përkon me numrin e shtresave të fshehura, plus një, duke përfshirë edhe shtresën e daljes që është gjithashtu e parametrizuar. Në rrjetet nervore të përsëritura, ku një sinjal mund të kalojë disa herë nëpër të njëjtën shtresë, thellësia e CAP-ve mund të jetë potencialisht më e madhe.[9]Schmidhuber, J. (2015). "Deep Learning in Neural Networks: An Overview". Neural Networks (në english). 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637.{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja)</ref> Nuk ka një prag të përcaktuar universalisht që ndan të mësuarit e cekët nga të mësuarit e thellë, por shumica e studiuesve janë të një mendimi se të mësuarit e thellë karakterizohet nga një thellësi CAP më e madhe se dy. Është provuar se një CAP me thellësi dy mund të shërbejë si përafrues universal, duke qenë i aftë të imitojë çdo funksion.[10] Përtej këtij niveli, shtimi i më shumë shtresave nuk përmirëson aftësinë e rrjetit për të përafruar funksionet. Megjithatë, modelet e thella (CAP > 2) kanë avantazhin e nxjerrjes së veçorive më cilësore krahasuar me modelet e cekëta, duke bërë që shtresat shtesë të kontribuojnë në mënyrë efektive në procesin e mësimit të veçorive.
Arkitekturat e të mësuarit të thellë mund të ndërtohen në mënyrë të kujdesshme, shtresë pas shtrese, duke lejuar një qasje të strukturuar në zhvillimin e modeleve. Të mësuarit e thellë ndihmon në zbërthimin e abstraksioneve komplekse dhe në identifikimin e veçorive që kontribuojnë më shumë në përmirësimin e performancës së modelit.[8]
Algoritmet e të mësuarit të thellë mund të përdoren për detyra të të mësuarit të pambikëqyrura, gjë që është një avantazh i madh duke pasur parasysh se të dhënat e paetiketuara janë zakonisht më të shumta dhe më të lehta për t'u aksesuar sesa të dhënat e etiketuara. Një shembull i strukturave të thella që mund të trajnohen në mënyrë të pambikëqyrur janë rrjetet e besimit të thellë, të cilat ofrojnë mundësi të fuqishme për nxjerrjen e veçorive dhe modelimin e të dhënave komplekse.[8]
Termi "Deep Learning" u prezantua për herë të parë në komunitetin e të mësuarit të makinerive nga Rina Dechter në vitin 1986, dhe më vonë në kontekstin e rrjeteve nervore artificiale nga Igor Aizenberg dhe kolegët e tij në vitin 2000, duke u fokusuar në neuronet e pragut Boolean.[11] Edhe pse historia e paraqitjes së saj është me sa duket më e ndërlikuar.[12]
Interpretimet
RedaktoRrjetet nervore të thella interpretohen përgjithësisht në termat e teoremës universale të përafrimit [13][14][15][16]Hassoun, Mohamad H. (1995). Fundamentals of Artificial Neural Networks (në english). MIT Press. fq. 48. ISBN 978-0-262-08239-6.{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja)</ref> ose për funksione që lidhen me përfundime probabilistike, duke zgjeruar më tej zbatueshmërinë e teoremës në kontekste që përfshijnë interpretimin dhe modelimin probabilistik në rrjetet nervore.[17][18][8][9][19]
Teorema klasike e përafrimit universal përshkruan aftësinë e rrjeteve nervore me një shtresë të fshehur dhe një numër të fundmë njësish për të përafruar çdo funksion të vazhdueshëm me një saktësi të dëshiruar, duke e bërë atë një rezultat themelor në teorinë e rrjeteve nervore.[13]Cybenko (1989). "Approximations by superpositions of sigmoidal functions" (PDF). Mathematics of Control, Signals, and Systems. 2 (4): 303–314. Bibcode:1989MCSS....2..303C. doi:10.1007/bf02551274. Arkivuar nga origjinali (PDF) më 10 tetor 2015. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)</ref>[14]Hornik, Kurt (1991). "Approximation Capabilities of Multilayer Feedforward Networks". Neural Networks. 4 (2): 251–257. doi:10.1016/0893-6080(91)90009-t. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>[15]Haykin, Simon S. (1999). Neural Networks: A Comprehensive Foundation. Prentice Hall. ISBN 978-0-13-273350-2. {{cite book}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>[16] Në 1989, prova e parë u botua nga George Cybenko për funksionet e aktivizimit të sigmoidit [13] dhe u gjeneralizua në arkitekturat me shumë shtresa në 1991 nga Kurt Hornik.[14] Studime të fundit kanë treguar se teorema e përafrimit universal zbatohet gjithashtu për funksionet e aktivizimit të pakufishëm, si njësia lineare e korrigjuar (ReLU), e cila u propozua fillimisht nga Kunihiko Fukushima. Kjo zgjeron qëndrueshmërinë e teoremës për përdorimin e aktivizimeve moderne në rrjetet nervore.[20][21]
Teorema universale e përafrimit për rrjetet nervore të thella lidhet me kapacitetin e rrjeteve që kanë gjerësi të kufizuar, ndërsa thellësia mund të zgjerohet. Lu et al. [1] vërtetuan se një rrjet nervor i thellë me aktivizimin ReLU mund të përafrojë çdo funksion të integrueshëm të Lebesgue nëse gjerësia e tij është rreptësisht më e madhe se dimensioni i hyrjes. Në të kundërt, nëse gjerësia është më e vogël ose baraz me dimensionin e hyrjes, rrjeti nuk është në gjendje të veprojë si një përafrues universal. Kjo thekson rëndësinë e balancimit midis gjerësisë dhe thellësisë për të arritur një kapacitet të lartë përafrimi. Për më tepër, shtimi i thellësisë lejon rrjetet të kapin struktura më komplekse dhe varësi hierarkike në të dhëna.
Interpretimi probabilistik[19]Murphy, Kevin P. (24 gusht 2012). Machine Learning: A Probabilistic Perspective. MIT Press. ISBN 978-0-262-01802-9. {{cite book}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)</ref> rrjedh nga fusha e mësimit të makinerive . Ai përmban konkluzionet,[18][7][8]Bengio, Y.; Courville, A.; Vincent, P. (2013). "Representation Learning: A Review and New Perspectives". IEEE Transactions on Pattern Analysis and Machine Intelligence. 35 (8): 1798–1828. arXiv:1206.5538. doi:10.1109/tpami.2013.50. PMID 23787338. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>[9][22][19] si dhe konceptet e optimizimit të trajnimit dhe testimit, të lidhura me përshtatjen dhe përgjithësimin, përkatësisht. Më konkretisht, interpretimi probabilistik e konsideron jolinearitetin e aktivizimit si një funksion të shpërndarjes kumulative.[19] Interpretimi probabilistik luajti një rol të rëndësishëm në zhvillimin e metodave të rregullimit për rrjetet nervore, si braktisja (dropout), që ndihmon në parandalimin e mbipërshtatjes. Ky interpretim u prezantua nga studiues si Hopfield, Widrow dhe Narendra, dhe më vonë u popullarizua përmes punimeve dhe sondazheve gjithëpërfshirëse, si ai i Bishop.[23]
Historia
RedaktoPara vitit 1980
RedaktoEkzistojnë dy lloje kryesore të rrjeteve nervore artificiale (ANN): rrjetet nervore të përshpejtuara (FNN), të njohura gjithashtu si perceptron shumështresor (MLP) dhe rrjetet nervore të përsëritura (RNN). Ndërsa FNN-të kanë një strukturë lidhjeje pa cikle, ku të dhënat rrjedhin në mënyrë të njëanshme nga hyrja te dalja, RNN-të përfshijnë cikle në strukturën e tyre, duke mundësuar përpunimin e të dhënave sekuenciale dhe ruajtjen e informacionit nëpër kohë. Në vitet 1920, Wilhelm Lenz dhe Ernst Ising krijuan modelin Ising [24][25] i cili në thelb është një arkitekturë RNN jo-mësimore e përbërë nga elementë të pragut të ngjashëm me neuronet. Në vitin 1972, Shun'ichi Amari e bëri këtë arkitekturë të adaptueshme.[26][27] RNN e tij mësimore u ribotua nga John Hopfield në 1982.[28] Rrjete të tjera nervore të hershme të përsëritura u publikuan nga Kaoru Nakano në 1971.[29][30] Tashmë në vitin 1948, Alan Turing prodhoi një punë mbi "Makineri inteligjente" që nuk u botua gjatë jetës së tij,[31] që përmbante "ide që lidhen me evolucionin artificial dhe të mësuarit e RNN".[27]
Frank Rosenblatt (1958) [1] prezantoi perceptronin, një rrjet me shumë shtresa (MLP) i përbërë nga tre shtresa: një shtresë hyrëse, një shtresë e fshehur me pesha të rastësishme që nuk përditësoheshin gjatë mësimit, dhe një shtresë dalëse. Në vitin 1962, ai botoi një libër ku prezantoi variante të perceptronit dhe eksperimente kompjuterike, duke përfshirë një version me katër shtresa të quajtura "rrjete paraterminale adaptive," ku dy shtresat e fundit kishin pesha që mësoheshin. Në këtë punim, ai vlerësonte gjithashtu kontributin e HD Block dhe BW Knight.[32] :section 16Libri citon një rrjet të mëparshëm nga RD Joseph (1960) [33] "funksionalisht ekuivalent me një variacion të" këtij sistemi me katër shtresa (libri përmend Jozefin mbi 30 herë). Prandaj, a mund të konsiderohet Jozefi krijuesi i perceptroneve adaptive shumështresore me njësitë e fshehura që mësojnë? Fatkeqësisht, algoritmi i propozuar për mësimin nuk ishte funksional dhe përfundoi duke u harruar.
Algoritmi i parë funksional për mësimin e thellë ishte metoda e grupit të trajtimit të të dhënave (Group Method of Data Handling – GMDH), e zhvilluar nga Alexey Ivakhnenko dhe Valentin Lapa në vitin 1965. Kjo metodë u përdor për të trajnuar rrjete nervore me një thellësi arbitrare dhe u konceptua si një formë e regresionit polinomial.[34] ose një përgjithësim të perceptronit të Rosenblatt.[35] Një punim i vitit 1971 përshkroi një rrjet të thellë me tetë shtresa të trajnuar nga kjo metodë,[36] e cila bazohet në një proces trajnimi shtresë pas shtrese duke përdorur analizën e regresionit. Njësitë e fshehura të tepërta eliminohen duke u mbështetur në një grup të veçantë vërtetimi. Meqenëse funksionet e aktivizimit të nyjeve përfaqësohen nga polinomet Kolmogorov-Gabor, këto rrjete ishin gjithashtu të parat që përfshinin njësi shumëzuese ose "porta".
Perceptroni i parë shumështresor i të mësuarit të thellë i trajnuar nga zbritja stokastike e gradientit [37] u publikua në vitin 1967, nga Shun'ichi Amari algoritmi kontribuoi në zhvillimin e mëtejshëm të metodave të mësimit të thellë, duke përfshirë konceptet e avancuara për trajnimin e rrjeteve nervore.[38] Në eksperimentet kompjuterike të kryera nga studenti i Amari, Saito, një MLP me pesë shtresa me dy shtresa të modifikueshme mësoi përfaqësime të brendshme për të klasifikuar klasat e modeleve jolinearisht të ndashme. Zhvillimet e mëvonshme në akordimet harduerike dhe hiperparametrash e kanë bërë zbritjen e gradientit stokastik nga fundi në fund teknikën dominuese të stërvitjes.
Në vitin 1969, Kunihiko Fukushima prezantoi një variant të funksionit të aktivizimit të njohur si ReLU (Rectified Linear Unit). Ky funksion, i cili është aktiv vetëm për vlera pozitive, u bë një komponent thelbësor në rrjetet nervore moderne, falë thjeshtësisë dhe efektivitetit të tij në trajnimet e thella.[20]Fukushima, K. (1969). "Visual feature extraction by a multilayered network of analog threshold elements". IEEE Transactions on Systems Science and Cybernetics. 5 (4): 322–333. doi:10.1109/TSSC.1969.300225. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>[27] Ndreqësi është bërë funksioni më i popullarizuar i aktivizimit për të mësuarit e thellë.[39]
Arkitekturat e të mësuarit të thellë për rrjetet nervore konvolucionale (CNN), të përbëra nga shtresa konvolucionale dhe shtresa për pakësimin e mostrave, filluan me Neocognitron, i prezantuar nga Kunihiko Fukushima në vitin 1979. Megjithëse ishte një model novator, ai nuk përdorte përhapjen prapa për trajnim.[40][41]
Përhapja prapa është një aplikim efikas i rregullit të zinxhirit të nxjerrë nga Gottfried Wilhelm Leibniz në 1673 [42] në rrjetet e nyjeve të diferencueshme. Terminologjia "gabimet e përhapjes së prapme" u prezantua fillimisht nga Frank Rosenblatt në vitin 1962, duke përshkruar një proces të korrigjimit të gabimeve në rrjetet nervore. Megjithatë, metoda e plotë dhe efektive për përhapjen prapa si algoritëm trajnimi u zhvillua dhe u bë e njohur më vonë, në vitet 1980 [32]Rosenblatt, Frank (1962). Principles of Neurodynamics. Spartan, New York. {{cite book}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref> por ai nuk dinte si ta zbatonte këtë, megjithëse Henry J. Kelley kishte një pararendës të vazhdueshëm të përhapjes së pasme në 1960 në kontekstin e teorisë së kontrollit.[43] Forma moderne e algoritmit të përhapjes së pasme u paraqit për herë të parë në vitin 1970 në tezën e masterit të Seppo Linnainmaa. Ai prezantoi një metodë të përgjithshme për llogaritjen e derivatëve të funksioneve të përbëra, e njohur si diferencimi automatik, që përbën bazën e algoritmit të përhapjes së pasme të përdorur sot në trajnimin e rrjeteve nervore.[44][45] GM Ostrovski etj. e ribotoi në vitin 1971.[46] Paul Werbos aplikoi përhapjen e pasme në rrjetet nervore në vitin 1982 [47] (teza e doktoraturës së vitit 1974, ribotuar në një libër të vitit 1994,[48] nuk e përshkruan ende algoritmin [46]). Në vitin 1986, David E. Rumelhart et al. popullarizoi përhapjen e pasme, por nuk citoi veprën origjinale.[49]
1980–2000
RedaktoRrjeti nervor i vonesës kohore (Time-Delay Neural Network – TDNN) u prezantua nga Alex Waibel në vitin 1987 si një aplikim i CNN-ve për njohjen e fonemave në të dhënat audio. TDNN përdorte shtresa konvolucionale, ndarje të peshave dhe algoritmin e përhapjes së pasme për trajnimin e modelit, duke u bërë një nga aplikimet e para të CNN-ve në përpunimin e sinjaleve kohore. Në vitin 1988, Wei Zhang aplikoi një CNN të trajnuar pas përhapjes për njohjen e alfabetit.[50] Në 1989, Yann LeCun et al. krijoi një CNN të quajtur LeNet për njohjen e kodeve ZIP të shkruara me dorë në postë. Trajnimi kërkohet 3 ditë. Në vitin 1990, Wei Zhang zbatoi një CNN mbi pajisjet kompjuterike optike.[51] Në vitin 1991, një CNN u aplikua për segmentimin e objekteve të imazhit mjekësor [52] dhe zbulimin e kancerit të gjirit në mamografi.[53] LeNet -5 (1998), një CNN me 7 nivele nga Yann LeCun et al., që klasifikon shifrat, u aplikua nga disa banka për të njohur numrat e shkruar me dorë në çeqet e dixhitalizuara në imazhe 32x32 pixel.[54]
Rrjetet nervore të përsëritura (RNN)[24]"bibliotheca Augustana". www.hs-augsburg.de. {{cite web}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>[26]Amari, Shun-Ichi (1972). "Learning patterns and pattern sequences by self-organizing nets of threshold elements". IEEE Transactions. C (21): 1197–1206. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref> u zhvilluan më tej në vitet 1980. Përsëritja përdoret për përpunimin e sekuencave dhe, kur një rrjet i përsëritur hapet, ai matematikisht shndërrohet në një rrjet të thellë feedforward, ku çdo hap kohor përfaqëson një shtresë të veçantë në rrjet. Kjo strukturë lejon përpunimin e informacionit që shtrihet mbi një varg kohor. Rrjedhimisht, ata kanë prona dhe çështje të ngjashme dhe zhvillimet e tyre patën ndikime të ndërsjella. Në RNN, dy vepra të hershme me ndikim ishin rrjeti Jordan (1986) [55] dhe rrjeti Elman (1990),[56] i cili aplikoi RNN për të studiuar problemet në psikologjinë konjitive.
Në vitet 1980, përhapja e pasme hasi vështirësi në trajtimin e problemeve të mësimit të thellë me shtigje të gjata të caktimit të kredisë, duke çuar në vështirësi në trajtimin e varësive afatgjata. Për të adresuar këtë sfidë, në vitin 1991, Jürgen Schmidhuber propozoi një qasje inovative që përfshinte një hierarki të rrjeteve nervore të përsëritura (RNN), të trajnuar paraprakisht një nivel në një kohë përmes mësimit të vetë-mbikëqyrur. Në këtë hierarki, secili RNN përpiqet të parashikojë hyrjen e tij të ardhshme, e cila përfaqëson informacionin e papritur të gjeneruar nga RNN i nivelit më të ulët.[57][58] Ky "kompresor i historisë nervore" përdor kodimin parashikues për të mësuar përfaqësime të brendshme që vetë-organizohen në shkallë të ndryshme kohore. Kjo qasje i lejon rrjetit të kapë struktura dhe varësi afatgjata në të dhëna, duke kompresuar historinë e hyrjeve në mënyrë efikase përmes hierarkive të thelluara dhe të përsëritura. Kjo mund të lehtësojë ndjeshëm të mësuarit e thellë në rrjedhën e poshtme. Hierarkia RNN mund të shembet në një RNN të vetëm, duke distiluar një rrjet chunker të nivelit më të lartë në një rrjet automatizues të nivelit më të ulët.[57][58] Në vitin 1993, një kompresor i historisë nervore zgjidhi një detyrë "Mësimi shumë i thellë" që kërkonte më shumë se 1000 shtresa pasuese në një RNN të shpalosur në kohë. "P" në ChatGPT i referohet një trajnimi të tillë paraprak.
Teza e diplomës e Sepp Hochreiter (1991) zbatoi kompresorin e historisë nervore,[57]Schmidhuber, Jürgen (prill 1991). "Neural Sequence Chunkers" (PDF). TR FKI-148, TU Munich. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)</ref> dhe identifikoi dhe analizoi problemin e gradientit në zhdukje.[59][60] Hochreiter propozoi lidhje të mbetura të përsëritura si një zgjidhje për problemin e gradientit që zhduket, i cili ishte një pengesë kryesore në trajnimin e rrjeteve të përsëritura nervore (RNN). Kjo punë çoi në zhvillimin e arkitekturës së Kujtesës Afatgjatë të Shkurtër (LSTM), e cila u publikua në vitin 1995. LSTM përdor një sistem të veçantë të qelizave dhe mekanizmave të portave për të ruajtur dhe menaxhuar informacionin në mënyrë efektive mbi periudha të gjata kohore, duke zbutur problemin e gradientit që zhduket. LSTM mund të mësojë detyra "të mësuarit shumë të thellë" [9] me shtigje të gjata të caktimit të kredisë që kërkojnë kujtime të ngjarjeve që kanë ndodhur mijëra hapa kohorë diskrete më parë. Ajo LSTM nuk ishte ende arkitektura moderne, e cila kërkonte një "portë harrese", e prezantuar në 1999,[61] e cila u bë arkitektura standarde RNN.
Në vitin 1991, Jürgen Schmidhuber publikoi një model të rrjeteve nervore kundërshtare, ku rrjetet konkurrojnë me njëra-tjetrën në një kornizë të ngjashme me një lojë me shumën zero. Në këtë konfigurim, fitimi i një rrjeti përfaqëson humbjen e rrjetit tjetër, duke krijuar një dinamikë kundërshtare që synon të përmirësojë performancën e të dy rrjeteve përmes konkurrencës.[62] Rrjeti i parë është një model gjenerues që modelon një shpërndarje probabiliteti mbi modelet e prodhimit. Rrjeti i dytë mëson nga zbritja e gradientit të parashikojë reagimet e mjedisit ndaj këtyre modeleve. Kjo u quajt "kuriozitet artificial". Në vitin 2014, ky parim u përdor në rrjetet kundërshtare gjeneruese (GAN).[63]
Gjatë viteve 1985–1995, të frymëzuara nga mekanika statistikore, u zhvilluan disa arkitektura dhe metoda nga Terry Sejnowski, Peter Dayan, Geoffrey Hinton, etj., duke përfshirë makinën Boltzman,[64] makinën Boltzman të kufizuar,[65] makinën Helmholtz,[66] dhe algoritmi zgjim-gjumë.[67] Këto u zhvilluan për të mësuar modele gjeneruese të thella në mënyrë të pambikëqyrur. Megjithatë, ato kërkonin më shumë burime llogaritëse krahasuar me algoritmin e përhapjes së pasme. Algoritmi i mësimit të makinës Boltzman, i prezantuar në vitin 1985, pati një periudhë të shkurtër popullariteti përpara se të zëvendësohej nga algoritmi më efikas i përhapjes së pasme në vitin 1986. (fq. 112 [68] ). Një rrjet nervor i zhvilluar në vitin 1988 arriti të bëhej gjendja e artit në parashikimin e strukturës së proteinave, duke përfaqësuar një nga aplikimet e para të suksesshme të të mësuarit të thellë në fushën e bioinformatikës.[69]
Të mësuarit e cekët dhe të thellë, përfshirë përdorimin e rrjeteve nervore të përsëritura (RNN), kanë qenë objekt studimi për një periudhë të gjatë në fushën e njohjes së të folurit.[70][71][72] Këto metoda nuk arritën të tejkalojnë performancën e teknologjisë së modelit të fshehur Markov (GMM-HMM), e cila përdorte një përzierje Gaussianësh jo-uniforme dhe modele të brendshme të prodhuara manualisht. GMM-HMM, i bazuar në modele gjeneruese të të folurit të trajnuara në mënyrë diskriminuese, mbeti standardi kryesor për shumë vite në njohjen e të folurit.[73] Vështirësitë kryesore janë analizuar, duke përfshirë zvogëlimin e gradientit dhe strukturën e dobët të korrelacionit kohor në modelet parashikuese nervore.[74][75] Vështirësi shtesë ishin mungesa e të dhënave të trajnimit dhe fuqia e kufizuar llogaritëse.
Shumica e studiuesve në fushën e njohjes së të folurit braktisën përdorimin e rrjeteve nervore për një kohë dhe iu drejtuan modelimit gjenerues, siç janë modelet Gaussian dhe modelet e fshehura Markov (HMM), të cilat ofronin një qasje më praktike dhe të besueshme në atë periudhë. Një përjashtim ishte në SRI International në fund të viteve 1990. Financuar nga NSA dhe DARPA e qeverisë së SHBA-së, SRI hulumtoi në njohjen e të folurit dhe folësit . Ekipi i njohjes së altoparlantëve i udhëhequr nga Larry Heck raportoi sukses të rëndësishëm me rrjetet nervore të thella në përpunimin e të folurit në standardin NIST Speaker Recognition të vitit 1998.[76][77] Ai u vendos në Verifikuesin e Nuances, që përfaqëson aplikacionin e parë të madh industrial të të mësuarit të thellë.
Parimi i ngritjes së tipareve "të papërpunuara" mbi optimizimin e punuar me dorë u eksplorua për herë të parë me sukses në fund të viteve 1990, duke përdorur arkitekturën e autoenkoderit të thellë. Kjo qasje u aplikua në spektrogramet "të papërpunuara" ose në tiparet lineare të bankës së filtrave, duke treguar potencialin për të mësuar përfaqësime komplekse drejtpërdrejt nga të dhënat fillestare.[77]Heck, L.; Konig, Y.; Sonmez, M.; Weintraub, M. (2000). "Robustness to Telephone Handset Distortion in Speaker Recognition by Discriminative Feature Design". Speech Communication. 31 (2): 181–192. doi:10.1016/s0167-6393(99)00077-1. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref> Duke treguar epërsinë e tij ndaj Mel- Veçoritë cepstrale që përmbajnë faza të transformimit fiks nga spektrogramet. Karakteristikat e papërpunuara të të folurit, format e valës, më vonë dhanë rezultate të shkëlqyera në shkallë më të gjerë.[78]
vitet 2000
RedaktoNë vitet 1990 dhe 2000, rrjetet nervore ranë në një periudhë të pavlefshmërisë, ndërsa modelet më të thjeshta që përdornin veçori të punuara me dorë, të përshtatura për detyra specifike, si filtrat Gabor dhe makinat vektoriale mbështetëse (SVM), u bënë zgjedhjet e preferuara. Kjo ndodhi për shkak të kostos së lartë llogaritëse të rrjeteve nervore artificiale dhe mungesës së të kuptuarit të mënyrës se si truri lidh rrjetet e tij biologjike, gjë që kufizonte përparimet në projektimin e rrjeteve nervore artificiale.[ citim i nevojshëm ]
Në vitin 2003, LSTM filloi të tregonte rezultate konkurruese në krahasim me metodat tradicionale të njohjes së të folurit për detyra të caktuara.[1] Më pas, në vitin 2006, Alex Graves, Santiago Fernández, Faustino Gomez, dhe Jürgen Schmidhuber e përmirësuan këtë qasje duke e kombinuar LSTM me Klasifikimin Kohor të Lidhjes (CTC), një algoritëm që mundëson trajtimin e detyrave sekuenciale si njohja e të folurit pa pasur nevojë për përafrime fikse ndërmjet hyrjes dhe daljes.[79] në pirgjet e LSTM-ve. Në vitin 2009, ai u bë RNN i parë që fitoi një konkurs për njohjen e modeleve, në njohjen e ndërlidhur të shkrimit të dorës.[9]
Në vitin 2006, botimet nga Geoff Hinton, Ruslan Salakhutdinov, Osindero dhe Teh[80][81] u zhvilluan rrjete të thella besimi për modelimin gjenerues. Ata trajnohen duke përdorur një proces hierarkik, ku fillimisht stërvitet një makinë Boltzman e kufizuar (RBM). Pasi kjo RBM ngrin parametrat e saj, trajnohet një RBM tjetër mbi të, dhe procesi përsëritet në shtresa të njëpasnjëshme. Në fund, rrjeti mund të rregullohet opsionalisht duke përdorur përhapjen e mbikëqyrur prapa, për të përmirësuar performancën për detyrat specifike. Ata mund të modelonin shpërndarje të probabilitetit me dimensione të larta, të tilla si shpërndarja e imazheve MNIST, por konvergjenca ishte e ngadaltë.[82][83][84]
Ndikimi i të mësuarit të thellë në industri filloi të bëhej i dukshëm në fillim të viteve 2000, kur rrjetet nervore konvolucionale (CNN) filluan të përpunonin midis 10% dhe 20% të të gjitha çeqeve bankare të shkruara në SHBA. Sipas Yann LeCun, kjo përfaqësonte një nga aplikimet e hershme praktike dhe të shkallëzuara të të mësuarit të thellë në zgjidhjen e problemeve reale industriale. Aplikimet industriale të të mësuarit të thellë për njohjen e të folurit në shkallë të gjerë filluan rreth vitit 2010.
Punëtoria NIPS 2009 mbi të mësuarit e thellë për njohjen e të folurit u zhvillua si përgjigje ndaj kufizimeve të modeleve gjeneruese të thella të të folurit. Ajo u motivua nga mundësia që, me përmirësimet në harduerin llogaritës dhe disponueshmërinë e grupeve të mëdha të të dhënave, rrjetet e thella nervore të bëheshin një qasje praktike dhe më efikase për zgjidhjen e detyrave komplekse të njohjes së të folurit. Besohej se DNN-të para-trajnuese duke përdorur modele gjeneruese të rrjetave të besimit të thellë (DBN) do të kapërcenin vështirësitë kryesore të rrjetave nervore. Megjithatë, u zbulua se zëvendësimi i trajnimit paraprak me sasi të mëdha të të dhënave stërvitore për përhapje të drejtpërdrejtë në prapavijë kur përdorni DNN me shtresa të mëdha dalëse të varura nga konteksti, prodhoi shkallë gabimi në mënyrë dramatike më të ulët se modeli i përzierjes Gaussian i atëhershëm më i fundit (GMM )/Hidden Markov Model (HMM) dhe gjithashtu se sistemet më të avancuara gjeneruese të bazuara në modele.[85] Natyra e gabimeve të njohjes të prodhuara nga dy llojet e sistemeve ishte karakteristikisht e ndryshme,[86] duke ofruar njohuri teknike se si të integrohet mësimi i thellë në sistemin ekzistues shumë efikas të dekodimit të të folurit në kohë ekzekutimi të vendosur nga të gjitha sistemet kryesore të njohjes së të folurit.[18][87][88] Rreth viteve 2009–2010, analiza që krahasonte modelet GMM (dhe modelet e tjera gjeneruese të të folurit) me modelet e rrjeteve nervore të thella (DNN) nxiti një diskutim të gjerë mbi avantazhet dhe kufizimet e të dyja qasjeve. Rezultatet premtuese të DNN-ve në tejkalimin e kufizimeve të GMM-ve stimuluan investimet e hershme industriale në të mësuarit e thellë për aplikime të njohjes së të folurit, duke shënuar një moment kyç në evoluimin e kësaj fushe.[86] Kjo analizë tregoi se modelet e rrjeteve nervore të thella (DNN) diskriminuese arritën një performancë të krahasueshme me modelet gjeneruese, me një diferencë prej më pak se 1.5% në shkallën e gabimit. Ky rezultat nënvizoi potencialin e DNN-ve për të zëvendësuar modelet gjeneruese në aplikime komplekse, duke i bërë ato më tërheqëse për zhvillime të mëtejshme dhe investime industriale.[85][86][89] Në vitin 2010, studiuesit zgjeruan mësimin e thellë nga TIMIT në njohjen e madhe të fjalorit të të folurit, duke adoptuar shtresa të mëdha dalëse të DNN bazuar në gjendjet HMM të varura nga konteksti, të ndërtuara nga pemët e vendimmarrëse.[90][91][92][87]
Revolucion i të mësuarit të thellë
RedaktoRevolucioni i të mësuarit të thellë nisi rreth fushës së vizionit kompjuterik, me avancimet në rrjetet nervore konvolucionale (CNN) dhe përdorimin e GPU-ve për përpunim paralel. Këto teknologji mundësuan trajnim më të shpejtë dhe më efikas të modeleve komplekse, duke çuar në përmirësime të mëdha në detyrat e njohjes së imazheve dhe të vizionit kompjuterik.
Edhe pse CNN-të e trajnuar nga prapashfaqja kishin qenë rreth e rrotull për dekada dhe implementimet GPU të NN-ve për vite,[93] duke përfshirë CNN-të,[94] nevojiteshin zbatime më të shpejta të CNN-ve në GPU për të përparuar në vizionin kompjuterik. Më vonë, me zgjerimin e aplikimeve të të mësuarit të thellë, u krijuan optimizime të specializuara në harduer dhe algoritme të përshtatura posaçërisht për kërkesat e tij. Këto përfshijnë procesorë të specializuar si TPU-të (Tensor Processing Units) dhe teknika algoritmike të avancuara për të përmirësuar efikasitetin e trajnimit dhe performancën e rrjeteve nervore.
Një nga përparimet kyçe që nxiti revolucionin e të mësuarit të thellë ishte zhvillimi i harduerit të avancuar, veçanërisht përdorimi i GPU-ve për trajnimet e rrjeteve nervore. GPU-të ofruan përpunim paralel të fuqishëm, duke përshpejtuar ndjeshëm trajnimet e modeleve komplekse. Disa nga punët e hershme që demonstruan potencialin e GPU-ve në këtë fushë datojnë që nga viti 2004, duke hedhur bazat për përhapjen e tyre në të mësuarit e thellë.[93]Oh, K.-S.; Jung, K. (2004). "GPU implementation of neural networks". Pattern Recognition. 37 (6): 1311–1314. Bibcode:2004PatRe..37.1311O. doi:10.1016/j.patcog.2004.01.013. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>[94] Në vitin 2009, Raina, Madhavan dhe Andrew Ng raportuan një rrjet besimi të thellë 100 milion të trajnuar në 30 GPU Nvidia GeForce GTX 280, një demonstrim i hershëm i të mësuarit të thellë të bazuar në GPU. Ata raportuan trajnime deri në 70 herë më të shpejta.[95]
Në vitin 2011, një CNN i quajtur DanNet,[96][97] i zhvilluar nga Dan Ciresan, Ueli Meier, Jonathan Masci, Luca Maria Gambardella, dhe Jürgen Schmidhuber, arriti për herë të parë një performancë mbinjerëzore në një konkurs vizual të njohjes së modeleve. Ai tejkaloi metodat tradicionale me një faktor prej 3, duke shënuar një moment historik në fushën e të mësuarit të thellë dhe aplikimeve të tij në vizionin kompjuterik.[9] Më pas fitoi më shumë konkurse.[98][99] Ata treguan gjithashtu se si CNN -të me grumbullim maksimal në GPU përmirësonin performancën në mënyrë të konsiderueshme.[3]Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). "Multi-column deep neural networks for image classification". 2012 IEEE Conference on Computer Vision and Pattern Recognition. fq. 3642–3649. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8. {{cite book}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>
Në vitin 2012, Andrew Ng dhe Jeff Dean zhvilluan një rrjet nervor të përparuar ushqyes (FNN) që ishte në gjendje të mësonte koncepte të nivelit të lartë, si macet, duke analizuar imazhe të paetiketuara të nxjerra nga videot në YouTube.[100]
Në tetor 2012, AlexNet, i krijuar nga Alex Krizhevsky, Ilya Sutskever, dhe Geoffrey Hinton[4]Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffrey (2012). "ImageNet Classification with Deep Convolutional Neural Networks" (PDF). NIPS 2012: Neural Information Processing Systems, Lake Tahoe, Nevada. Arkivuar (PDF) nga origjinali më 2017-01-10. Marrë më 2017-05-24. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref> fitoi konkursin në shkallë të gjerë ImageNet, duke arritur një performancë që tejkaloi ndjeshëm metodat tradicionale të cekëta të mësimit të makinerive. Ky sukses shënoi një pikë kthese në të mësuarit e thellë, duke treguar fuqinë e rrjeteve nervore të thella për detyra komplekse në vizionin kompjuterik. Përmirësime të mëtejshme në rritje përfshinin rrjetin VGG-16 nga Karen Simonyan dhe Andrew Zisserman[101] dhe Inceptionv3 të Google.[102]
Suksesi i rrjeteve nervore të thella në klasifikimin e imazheve u zgjerua më tej në detyrën më komplekse të gjenerimit të përshkrimeve (titrave) për imazhet. Ky avancim u arrit shpesh duke kombinuar CNN-të për nxjerrjen e veçorive vizuale nga imazhet me LSTM-të për të gjeneruar përshkrime të bazuara në veçoritë e nxjerra, duke krijuar një qasje të fuqishme për integrimin e vizionit kompjuterik dhe përpunimit të gjuhës natyrore.[103][104][105]
Në vitin 2014, gjendja e artit në të mësuarit e thellë përfshinte trajnimin e rrjeteve nervore shumë të thella me 20 deri në 30 shtresa.[106] Megjithatë, rritja e numrit të shtresave hasi një pengesë të madhe: problemi i "degradimit", ku grumbullimi i shumë shtresave çonte në një ulje të konsiderueshme të saktësisë gjatë trajnimit, edhe kur rrjeti kishte kapacitet të mjaftueshëm për të mësuar modelin. Në vitin 2015, u zhvilluan dy teknika për të trajnuar rrjete shumë të thella: Rrjeti i Autostradave u publikua në maj 2015 dhe rrjeti nervor i mbetur (ResNet) në dhjetor 2015. ResNet sillet si një rrjet autostrade me portë të hapur.
Në të njëjtën periudhë, të mësuarit e thellë filloi të ndikonte edhe në fushën e artit. Shembuj të hershëm të kësaj përfshijnë Google DeepDream (2015), i cili krijonte imazhe të gjeneruara nga rrjete nervore përmes amplifikimit të modeleve të mësuara nga rrjeti, dhe transferimi i stilit nervor (2015), një teknikë që përdorte rrjete nervore për të kombinuar stilin vizual të një pikture me përmbajtjen e një imazhi tjetër, duke prodhuar art unik dhe krijues.[107] që të dyja bazoheshin në rrjetet nervore të klasifikimit të imazheve të paratrajnuara, si VGG-19.
Rrjeti i kundërshtarëve gjenerues (GAN) nga ( Ian Goodfellow et al., 2014) (bazuar në parimin e kuriozitetit artificial të Jürgen Schmidhuber [63] ) u bë më i fundit në modelimin gjenerues gjatë periudhës 2014–2018 . Cilësia e shkëlqyer e imazhit arrihet nga Nvidia 's StyleGAN (2018)[108] bazuar në Progressive GAN nga Tero Karras et al.[109] Në këtë rast, gjeneratori i rrjeteve nervore gjeneruese kundërshtare (GAN) është zgjeruar nga një shkallë e vogël në një shkallë të madhe përmes një qasjeje piramidale. Kjo teknikë ndihmon në ndërtimin gradual të detajeve, duke filluar nga rezolutat e ulëta dhe duke shtuar informacione të hollësishme ndërsa rritet shkalla, duke përmirësuar ndjeshëm cilësinë e gjenerimit të imazheve ose të dhënave të tjera komplekse. Gjenerimi i imazheve nga GAN arriti sukses popullor dhe provokoi diskutime në lidhje me falsifikimet e thella.[110] Modelet e difuzionit (2015)[111] eklipsuan GAN-et në modelimin gjenerues që atëherë, me sisteme të tilla si DALL·E 2 (2022) dhe Stable Diffusion (2022).
Në vitin 2015, Google arriti një përmirësim prej 49% në njohjen e të folurit duke përdorur një model të bazuar në LSTM. Ky avancim u bë një pjesë integrale e Google Voice Search, duke sjellë një përvojë më të saktë dhe të shpejtë për përdoruesit e smartphone. Ky zhvillim shënoi një hap të madh përpara në aplikimet praktike të rrjeteve nervore të thella në teknologjitë e përditshme.[112]
Të mësuarit e thellë është një komponent thelbësor i sistemeve më të avancuara në disiplina të ndryshme, me ndikim të veçantë në fusha si vizioni kompjuterik dhe njohja automatike e të folurit (ASR). Këto teknika kanë revolucionarizuar aftësinë për të analizuar, kuptuar dhe interpretuar të dhëna komplekse, duke çuar në përmirësime të mëdha në detyra si njohja e imazheve, përshkrimi i objekteve dhe përpunimi i të folurit njerëzor. Rezultatet në grupet e vlerësimit të përdorura zakonisht si TIMIT (ASR) dhe MNIST ( klasifikimi i imazheve ), si dhe një sërë detyrash me fjalor të gjerë për njohjen e të folurit janë përmirësuar në mënyrë të qëndrueshme.[85]Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). "Deep Neural Networks for Acoustic Modeling in Speech Recognition: The Shared Views of Four Research Groups". IEEE Signal Processing Magazine. 29 (6): 82–97. Bibcode:2012ISPM...29...82H. doi:10.1109/msp.2012.2205597. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>[113] Rrjetet nervore konvolucionale u zëvendësuan për ASR nga LSTM.[112]Sak, Haşim; Senior, Andrew; Rao, Kanishka; Beaufays, Françoise; Schalkwyk, Johan (shtator 2015). "Google voice search: faster and more accurate". Arkivuar nga origjinali më 2016-03-09. Marrë më 2016-04-09. {{cite web}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)</ref>[114][115][116] por janë më të suksesshëm në vizionin kompjuterik.
Yoshua Bengio, Geoffrey Hinton dhe Yann LeCun iu dha Çmimi Turing shpesh të quajtur "Nobel-i i Informatikës," për kontributet e tyre të jashtëzakonshme në fushën e të mësuarit të thellë. Çmimi u dha për "përparime konceptuale dhe inxhinierike që i kanë bërë rrjetet e thella nervore një komponent kritik të informatikës", duke theksuar ndikimin e tyre në zhvillimin dhe aplikimin e këtyre teknologjive në shumë disiplina.[117]
Rrjetet nervore
RedaktoRrjetet nervore artificiale (ANN), të njohura edhe si sisteme lidhëse, janë sisteme kompjuterike të frymëzuara nga rrjetet nervore biologjike që përbëjnë trurin e kafshëve. Këto sisteme mësojnë të kryejnë detyra duke analizuar shembuj, zakonisht pa pasur nevojë për programim specifik për secilën detyrë. Për shembull, në rastin e njohjes së imazheve, ato mund të mësojnë të dallojnë imazhet që përmbajnë mace duke analizuar imazhe shembull të etiketuar manualisht si "mace" ose "pa mace" dhe duke përdorur rezultatet për të identifikuar macet në imazhe të reja. Këto rrjete kanë gjetur përdorim të gjerë në aplikacione ku është e vështirë të formulohet një algoritëm tradicional kompjuterik bazuar në rregulla.
Një ANN bazohet në një koleksion të njësive të lidhura të quajtura neurone artificiale, (analoge me neuronet biologjike në një tru biologjik ). Çdo lidhje ( sinapsë ) ndërmjet neuroneve mund të transmetojë një sinjal në një neuron tjetër. Neuroni marrës (postinaptik) mund të përpunojë sinjalin(et) dhe më pas të sinjalizojë neuronet në rrjedhën e poshtme të lidhur me të. Neuronet mund të kenë gjendje, të përfaqësuar përgjithësisht nga numra realë, zakonisht midis 0 dhe 1. Neuronet dhe sinapset mund të kenë peshë variabile, e cila ndryshon gjatë procesit të mësimit. Këto ndryshime në peshë përcaktojnë fuqinë e sinjalit që transmetohet te neuronet në rrjedhën e poshtme, duke e rritur ose zvogëluar atë në bazë të rregullimeve të bëra për të optimizuar performancën e rrjetit. Ky mekanizëm është thelbësor për adaptimin dhe përmirësimin e rrjeteve nervore gjatë trajnimit.
Në mënyrë tipike, neuronet organizohen në shtresa, ku secila shtresë kryen lloje të ndryshme transformimesh mbi hyrjet që merr. Sinjalet kalojnë nga shtresa e parë (hyrje) drejt shtresës së fundit (dalëse), shpesh duke kaluar përmes shtresave të ndërmjetme një ose disa herë. Ky proces i shtresëzuar lejon rrjetet nervore të mësojnë përfaqësime të ndërlikuara dhe hierarkike të të dhënave.
Qëllimi fillestar i qasjes së rrjeteve nervore ishte të adresonte problemet në mënyrë të ngjashme me mënyrën se si funksionon truri i njeriut. Me kalimin e kohës, fokusi u zhvendos drejt përshtatjes së aftësive specifike njohëse, gjë që çoi në largime nga struktura biologjike, siç është përhapja e pasme – një proces ku informacioni rrjedh në drejtim të kundërt për të rregulluar rrjetin në bazë të atij informacioni.
Rrjetet nervore kanë gjetur përdorim në një gamë të gjerë detyrash, duke përfshirë: vizionin kompjuterik, njohjen e të folurit, përkthimin me makinë, filtrimin e rrjeteve sociale, luajtjen e lojërave në tabelë dhe video, si dhe diagnozën mjekësore. Aplikimet e tyre kanë transformuar mënyrën se si zgjidhen probleme komplekse në këto fusha, duke ofruar zgjidhje të automatizuara dhe shpeshherë më të sakta sesa qasjet tradicionale.
Deri në vitin 2017, rrjetet nervore zakonisht përmbanin nga disa mijëra deri në disa milionë njësi dhe miliona lidhje. Edhe pse ky numër është shumë më i vogël në krahasim me miliardat e neuroneve në trurin e njeriut, këto rrjete janë dëshmuar të afta të kryejnë shumë detyra me një performancë që shpesh tejkalon atë të njerëzve. Shembuj të tillë përfshijnë njohjen e fytyrave dhe luajtjen e lojës "Go", ku rrjetet nervore kanë arritur suksese të jashtëzakonshme.[118]
Rrjetet nervore të thella
RedaktoNjë rrjet nervor i thellë (DNN) është një rrjet nervor artificial që përmban disa shtresa midis shtresës hyrëse dhe asaj dalëse.[7][9] Ekzistojnë lloje të ndryshme të rrjeteve nervore, por ato gjithmonë përbëhen nga të njëjtët komponentë: neuronet, sinapset, peshat, paragjykimet dhe funksionet.[119] Këta komponentë punojnë së bashku duke imituar funksionet e trurit të njeriut dhe mund të trajnohen në mënyrë të ngjashme me çdo algoritëm tjetër të mësimit të makinerive (ML).[ citim i nevojshëm ]
Për shembull, një DNN i trajnuar për të identifikuar racat e qenve do të analizojë imazhin e dhënë dhe do të llogarisë probabilitetet për secilën racë të mundshme. Përdoruesi mund të shqyrtojë rezultatet dhe të vendosë cilat probabilitete të pranojë, bazuar në një prag të caktuar, për të përcaktuar racën e propozuar. Çdo manipulim matematikor gjatë këtij procesi konsiderohet si një shtresë në rrjetin nervor.[120] dhe DNN kompleks ka shumë shtresa, prandaj emri i rrjeteve "të thella".
Rrjetet nervore të thella (DNN) janë të afta të modelojnë marrëdhënie komplekse jolineare. Arkitekturat e tyre krijojnë modele kompozicionale, ku një objekt përfaqësohet si një përbërje hierarkike e primitivëve të shtresuar. Kjo strukturë i lejon DNN-të të mësojnë përfaqësime të ndërlikuara dhe të ndajnë veçori në nivele të ndryshme abstraksioni, duke i bërë ato veçanërisht të fuqishme për detyra komplekse si vizioni kompjuterik dhe përpunimi i gjuhës natyrore.[121] Shtresat shtesë lejojnë kombinimin dhe ndërtimin e veçorive nga ato të niveleve më të ulëta, duke bërë të mundur modelimin e të dhënave komplekse me më pak njësi krahasuar me një rrjet të cekët që ofron performancë të ngjashme.[7]Bengio, Yoshua (2009). "Learning Deep Architectures for AI" (PDF). Foundations and Trends in Machine Learning. 2 (1): 1–127. CiteSeerX 10.1.1.701.9550. doi:10.1561/2200000006. Arkivuar nga origjinali (PDF) më 4 mars 2016. Marrë më 3 shtator 2015. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)</ref> Për shembull, u vërtetua se polinomet e pakta shumëvariate janë në mënyrë eksponenciale më të lehtë për t'u përafruar me DNN-të sesa me rrjetet e cekëta.
Arkitekturat e thella përfshijnë variante të shumta të disa qasjeve themelore, ku secila ka treguar sukses në fusha specifike. Megjithatë, krahasimi i performancës midis këtyre arkitekturave është i vështirë, përveç rasteve kur ato testohen mbi të njëjtat grupe të dhënash.[120]
DNN-të zakonisht funksionojnë si rrjete të të dhënave ku informacioni rrjedh në mënyrë të njëanshme, nga shtresa hyrëse deri te shtresa dalëse, pa kthim prapa. Fillimisht, DNN krijon një hartë të neuroneve virtuale dhe cakton vlera numerike të rastësishme, të quajtura "pesha", për lidhjet midis tyre. Këto pesha shumëzohen me hyrjet dhe gjenerojnë një dalje, zakonisht një vlerë midis 0 dhe 1. Në rastet kur rrjeti nuk arrin të njohë saktë një model, një algoritëm rregullon peshat për të përmirësuar performancën.[122] Në këtë mënyrë algoritmi mund të bëjë disa parametra më me ndikim, derisa të përcaktojë manipulimin e saktë matematikor për të përpunuar plotësisht të dhënat.
Rrjetet nervore të përsëritura (RNN), të cilat lejojnë rrjedhjen e të dhënave në çdo drejtim, janë veçanërisht të përshtatshme për detyra që përfshijnë të dhëna sekuenciale. Ato përdoren gjerësisht në aplikacione si modelimi i gjuhës ku rrjetet duhet të analizojnë dhe kuptojnë varësitë ndërmjet fjalëve ose frazave në një sekuencë për të parashikuar ose gjeneruar tekst.[123][124][125][126][127] Kujtesa afatshkurtër është veçanërisht e efektshme për këtë përdorim.[128][129]
Rrjetet nervore konvolucionale (CNN) janë të specializuara për detyra në fushën e vizionit kompjuterik. Ato janë të dizajnuara për të përpunuar dhe analizuar të dhëna të strukturuara si imazhet, duke nxjerrë automatikisht veçori të rëndësishme për klasifikim, zbulim objektesh, segmentim të imazheve dhe detyra të tjera vizuale.[130] CNN-të janë aplikuar gjithashtu në modelimin akustik për njohjen automatike të të folurit (ASR).[131]
Sfidat
RedaktoAshtu si me rrjetet nervore artificiale (ANN), DNN-të që trajnohen në mënyrë naive mund të hasin disa sfida. Dy nga problemet më të zakonshme janë përshtatja e tepërt, ku modeli mëson tepër nga të dhënat e trajnimit dhe humb aftësinë për të përgjithësuar, dhe koha e llogaritjes, e cila mund të jetë e gjatë për shkak të kompleksitetit të modelit dhe numrit të madh të parametrave.
DNN-të janë të prirur për t'u mbipërshtatur për shkak të shtresave të shtuara të abstraksionit, të cilat i lejojnë ata të modelojnë varësi të rralla në të dhënat e trajnimit. Metodat e rregullimit të tilla si krasitja e njësisë së Ivakhnenko[36]Ivakhnenko, Alexey (1971). "Polynomial theory of complex systems" (PDF). IEEE Transactions on Systems, Man, and Cybernetics. SMC-1 (4): 364–378. doi:10.1109/TSMC.1971.4308320. Arkivuar (PDF) nga origjinali më 2017-08-29. Marrë më 2019-11-05. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref> ose zvogëlimi i peshës ( -rregullim) ose rrallësi ( -rregullimi) mund të aplikohet gjatë stërvitjes për të luftuar mbipërshtatjen.[132] Përndryshe, rregullimi i braktisjes së shkollës heq rastësisht njësitë nga shtresat e fshehura gjatë trajnimit. Kjo ndihmon për të përjashtuar varësitë e rralla.[133] Një zhvillim i fundit dhe interesant është kërkimi mbi modelet që përputhen me kompleksitetin e detyrës së modeluar, bazuar në vlerësimin e kompleksitetit të brendshëm të saj. Kjo metodë është aplikuar me sukses në detyra të ndryshme, si parashikimi i serive kohore, duke përfshirë raste me variacione të shumta, si parashikimi i trafikut.[134] Së fundi, të dhënat mund të zmadhohen duke përdorur teknika si prerja dhe rrotullimi, duke e bërë të mundur zgjerimin e grupeve të vogla të trajnimit. Kjo qasje ndihmon në reduktimin e mundësisë së përshtatjes së tepërt duke ofruar më shumë shembuj për modelin gjatë trajnimit.[135]
DNN-të duhet të marrin parasysh një sërë parametrash trajnimi, si madhësia e rrjetit (numri i shtresave dhe njësive për shtresë), shpejtësia e të mësuarit dhe peshat fillestare. Gjetja e parametrave optimalë duke eksploruar të gjithë hapësirën e mundshme shpesh nuk është e realizueshme për shkak të kostove të larta në kohë dhe burimeve llogaritëse. Për të adresuar këtë sfidë, përdoren truke të ndryshme, si grumbullimi, ku gradientët llogariten për disa shembuj trajnimi njëkohësisht, në vend që të trajtohen shembuj individualë.[136] përshpejtojnë llogaritjen. Aftësitë e mëdha të përpunimit të arkitekturave me shumë bërthama (të tilla si GPU ose Intel Xeon Phi) kanë prodhuar përshpejtime të konsiderueshme në trajnim, për shkak të përshtatshmërisë së arkitekturave të tilla përpunuese për llogaritjet e matricës dhe vektorit.[137][138]
Si alternativë, inxhinierët mund të shqyrtojnë përdorimin e llojeve të tjera të rrjeteve nervore që ofrojnë algoritme trajnimi më të thjeshta dhe më të qëndrueshme. Një shembull i tillë është CMAC (Kontrolluesi i Artikulatorit të Modelit Cerebellar), një rrjet nervor që nuk kërkon norma të mësimit apo vlera të rastësishme për peshat fillestare. Ky rrjet garanton konvergimin në një hap të vetëm me një grup të ri të dhënash, dhe kompleksiteti llogaritës i algoritmit të trajnimit rritet në mënyrë lineare në raport me numrin e neuroneve të përdorur.
Paisjet
RedaktoQë nga vitet 2010, përparimet në algoritmet e mësimit të makinerive dhe në harduerin kompjuterik kanë bërë të mundur trajtimin më efikas të rrjeteve nervore të thella. Këto rrjete përmbajnë shumë shtresa të njësive të fshehura jolineare dhe shpesh një shtresë dalëse shumë të madhe, duke u mundësuar atyre të mësojnë përfaqësime të ndërlikuara dhe të zgjidhin detyra komplekse në mënyrë më të shpejtë dhe të saktë. Këto zhvillime kanë revolucionarizuar aplikimet në fusha si vizioni kompjuterik, njohja e të folurit dhe përpunimi i gjuhës natyrore.[139] Deri në vitin 2019, njësitë e përpunimit grafik (GPU), shpesh të pajisura me optimizime specifike për inteligjencën artificiale, kishin zëvendësuar CPU-të si teknologjinë kryesore për trajnimin e AI komerciale në shkallë të gjerë.[140] OpenAI vlerësoi llogaritjen e harduerit të përdorur në projektet më të mëdha të të mësuarit të thellë nga AlexNet (2012) deri në AlphaZero (2017) dhe gjeti një rritje 300,000 herë në sasinë e llogaritjes së kërkuar, me një prirje kohore të dyfishuar prej 3.4 muajsh.[141][142]
Qarqet e veçanta elektronike të quajtura procesorë të mësimit të thellë u zhvilluan për të përshpejtuar ekzekutimin e algoritmeve të të mësuarit të thellë. Këto procesorë, si TPU-të (Tensor Processing Units) dhe GPU-të të avancuara, janë të dizajnuara për të trajtuar llogaritje intensive dhe të dhëna masive në mënyrë efikase, duke mundësuar trajnim më të shpejtë dhe inferencë më të efektshme të modeleve të thella nervore. Procesorët e mësimit të thellë përfshijnë njësitë e përpunimit nervor (NPU) në telefonat celularë Huawei[143] dhe serverët e informatikës cloud, siç janë njësitë e përpunimit të tensoreve (TPU) në platformën e resë kompjuterike të Google.[144] Cerebras Systems ka zhvilluar gjithashtu një sistem të specializuar për trajtimin e modeleve të mëdha të të mësuarit të thellë, të quajtur CS-2. Ky sistem bazohet në procesorin më të madh të industrisë, gjeneratën e dytë Wafer Scale Engine (WSE-2).[145][146]
Gjysmëpërçuesit atomikisht të hollë po konsiderohen si një zgjidhje premtuese për ndërtimin e harduerit të të mësuarit të thellë me efikasitet të lartë energjie. Këto materiale të avancuara lejojnë krijimin e pajisjeve ku e njëjta strukturë bazë mund të shërbejë njëkohësisht për operacione logjike dhe ruajtjen e të dhënave, duke reduktuar ndjeshëm konsumin e energjisë dhe kompleksitetin e sistemit. Ky zhvillim përfaqëson një hap të rëndësishëm drejt integrimit të operacioneve të përllogaritjes dhe memorjes në harduerin e të mësuarit të thellë. Në vitin 2020, Marega et al. botoi eksperimente me një material kanal aktiv me sipërfaqe të madhe për zhvillimin e pajisjeve dhe qarqeve logjike në memorie të bazuara në transistorë me efekt të fushës me portë lundruese (FGFET).[147]
Në vitin 2021, J. Feldmann et al. propozuan një përshpejtues të integruar të harduerit fotonik të projektuar për përpunim paralel konvolucionar. Ky përshpejtues përdor teknologjinë fotonike për të kryer operacione matematikore intensive të rrjeteve konvolucionale në mënyrë më të shpejtë dhe me efikasitet të lartë energjie, duke ofruar një alternativë premtuese ndaj harduerit elektronik tradicional për aplikime në të mësuarit e thellë.[148] Autorët identifikojnë dy avantazhe kryesore të fotonikës së integruar ndaj homologëve të saj elektronikë: (1) transferimi masiv paralel i të dhënave përmes multipleksimit të ndarjes së gjatësisë valore në lidhje me krehjet e frekuencës dhe (2) shpejtësi jashtëzakonisht të larta të modulimit të të dhënave.[148] Sistemi i tyre është i aftë të kryejë triliona operacione të akumulimit dhe shumëzimit për sekondë, duke demonstruar potencialin e fotonikës së integruar për aplikacione të inteligjencës artificiale që përpunojnë sasi të mëdha të dhënash.[148]
Aplikacionet
RedaktoNjohja automatike e të folurit
RedaktoStampa:Artificial intelligence navboxNjohja automatike e të folurit në shkallë të gjerë përfaqëson një nga rastet e para dhe më bindëse të suksesit të të mësuarit të thellë. RRN-të LSTM (Long Short-Term Memory) kanë aftësinë të mësojnë detyra që përfshijnë "të mësuar shumë të thellë"[9] që përfshijnë intervale shumë sekondash që përmbajnë ngjarje të të folurit të ndara nga mijëra hapa kohorë diskrete, ku një hap kohor korrespondon me rreth 10 ms. LSTM me porta harrese [129]"Learning Precise Timing with LSTM Recurrent Networks (PDF Download Available)". ResearchGate. Arkivuar nga origjinali më 9 maj 2021. Marrë më 13 qershor 2017. {{cite web}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)</ref> është konkurruese me njohësit tradicionalë të të folurit për detyra të caktuara.[149]
Suksesi fillestar në njohjen e të folurit u bazua në detyrat e njohjes në shkallë të vogël bazuar në TIMIT. Grupi i të dhënave përmban 630 folës nga tetë dialekte kryesore të anglishtes amerikane, ku secili folës lexon 10 fjali.[150] Madhësia e vogël e detyrës TIMIT e bën atë të përshtatshme për testimin e shumë konfigurimeve. Për më tepër, TIMIT fokusohet në njohjen e sekuencave të fonemave, e cila, ndryshe nga njohja e sekuencave të fjalëve, përdor modele më të thjeshta të gjuhës bigram të fonemave. Kjo e bën më të lehtë analizimin e aspektit akustik të njohjes së të folurit. Normat e gabimeve të raportuara, të matur si përqindje e gabimeve të fonemave (PER), përfshijnë rezultate të hershme dhe janë përmbledhur që nga viti 1991.
Metoda | Shkalla e gabimit në telefon në përqindje (PER) (%) |
---|---|
RNN i inicializuar rastësisht [151] | 26.1 |
Trifon Bayesian GMM-HMM | 25.6 |
Modeli i Trajektores së Fshehur (Gjenerative). | 24.8 |
DNN i iniciuar në mënyrë të rastësishme monofon | 23.4 |
Monofoni DBN-DNN | 22.4 |
Trifon GMM-HMM me trajnim BMMI | 21.7 |
Monofoni DBN-DNN në fbank | 20.7 |
DNN konvolucionale [152] | 20.0 |
DNN konvolucional w. Bashkim heterogjen | 18.7 |
Ansambli DNN/CNN/RNN [153] | 18.3 |
LSTM me dy drejtime | 17.8 |
Rrjeti Hierarkik Convolutional Deep Maxout [154] | 16.5 |
Debutimi i DNN-ve për njohjen e altoparlantëve në fund të viteve 1990, përdorimi i tyre për njohjen e të folurit gjatë viteve 2009–2011, dhe aplikimi i RRN-ve LSTM midis viteve 2003–2007, shënuan një përparim të madh që përshpejtoi zhvillimet në tetë fusha kryesore: [18][89]Li, Deng (shtator 2014). "Keynote talk: 'Achievements and Challenges of Deep Learning – From Speech Analysis and Recognition To Language and Multimodal Processing'". Interspeech. Arkivuar nga origjinali më 2017-09-26. Marrë më 2017-06-12. {{cite web}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)</ref>[87]Yu, D.; Deng, L. (2014). Automatic Speech Recognition: A Deep Learning Approach (Publisher: Springer). Springer. ISBN 978-1-4471-5779-3. {{cite book}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>
- Rritje/shkallëzim dhe trajnim dhe dekodim i përshpejtuar i DNN
- Sekuenca e trajnimit diskriminues
- Përpunimi i veçorive nga modele të thella me kuptim të fortë të mekanizmave themelorë
- Përshtatja e DNN-ve dhe modeleve të thella përkatëse
- Mësimi me shumë detyra dhe transferim nga DNN dhe modele të thella përkatëse
- CNN dhe si t'i dizajnoni ato për të shfrytëzuar më së miri njohuritë e domenit të fjalës
- RNN dhe variantet e tij të pasura LSTM
- Llojet e tjera të modeleve të thella, duke përfshirë modelet e bazuara në tensor dhe modelet e integruara gjeneruese/diskriminuese të thella.
Të gjitha sistemet kryesore komerciale të njohjes së të folurit (p.sh. Microsoft Cortana, Xbox, Skype Translator, Amazon Alexa, Google Now, Apple Siri, Baidu dhe iFlyTek kërkimi zanor dhe një sërë produktesh të të folurit Nuance, etj.) bazohen në të mësuarit e thellë. Këto rrjete nervore të avancuara janë thelbësore për përmirësimin e saktësisë dhe efikasitetit të sistemeve të njohjes dhe përpunimit të të folurit në kohë reale.[18]Deng, L.; Yu, D. (2014). "Deep Learning: Methods and Applications" (PDF). Foundations and Trends in Signal Processing. 7 (3–4): 1–199. doi:10.1561/2000000039. Arkivuar (PDF) nga origjinali më 2016-03-14. Marrë më 2014-10-18. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>
Njohja e imazhit
RedaktoNjë grup i njohur për vlerësimin e klasifikimit të imazheve është grupi i të dhënave MNIST, i cili përmban shifra të shkruara me dorë. Ai përfshin 60,000 shembuj trajnimi dhe 10,000 shembuj testimi, duke e bërë atë të përshtatshëm për testimin dhe krahasimin e konfigurimeve të ndryshme të modeleve. Ngjashëm me grupin TIMIT për njohjen e të folurit, madhësia e vogël e MNIST lejon testimin e shpejtë të konfigurimeve të shumta. Për më tepër, ekziston një listë gjithëpërfshirëse e rezultateve të arritura në këtë grup të dhënash, e cila shërben si pikë referimi për performancën e modeleve të ndryshme.[155]
Image recognition based on deep learning has reached a "superhuman" level, delivering results that surpass the accuracy of human participants. This milestone demonstrates the capability of deep neural networks to analyze and interpret visual data with precision beyond human limitations, especially in large-scale challenges such as the ImageNet competition. This first occurred in 2011 in recognition of traffic signs, and in 2014, with recognition of human faces.[156][157]
Automjetet e pajisura me teknologji të të mësuarit të thellë tani janë në gjendje të interpretojnë pamjet 360° të kapura nga kamerat. [1] Një tjetër shembull është Facial Dismorphology Novel Analysis (FDNA), e cila përdoret për të analizuar keqformimet njerëzore duke i lidhur ato me një bazë të dhënash të madhe të sindromave gjenetike.
Përpunimi i artit pamor
RedaktoI lidhur ngushtë me përparimet në njohjen e imazheve është përdorimi në rritje i teknikave të të mësuarit të thellë në detyra të ndryshme të artit pamor. Rrjetet nervore të thella (DNN) kanë dëshmuar aftësinë e tyre për të kryer detyra si:
- identifikimi i periudhës së stilit të një pikture të caktuar [158][159]
- Transferimi i stilit nervor – kapja e stilit të një vepre arti të caktuar dhe zbatimi i tij në një mënyrë të këndshme vizualisht në një fotografi ose video arbitrare [158][159]
- duke gjeneruar imazhe mahnitëse bazuar në fushat e rastësishme të hyrjes vizuale.[158][159]
Përpunimi i gjuhës natyrore
RedaktoRrjetet nervore kanë qenë në përdorim për zbatimin e modeleve gjuhësore që nga fillimi i viteve 2000. Fillimisht, ato u përdorën për detyra si modelimi i gjuhës, përkthimi me makinë, dhe njohja e të folurit, duke hapur rrugën për zhvillimin e modeleve më të avancuara. Me kalimin e kohës, përparimet në arkitekturat si RNN dhe më vonë Transformer, kanë përmirësuar ndjeshëm aftësitë e këtyre modeleve për të kuptuar, analizuar dhe gjeneruar tekst në mënyrë të natyrshme dhe efikase.[123]Gers, Felix A.; Schmidhuber, Jürgen (2001). "LSTM Recurrent Networks Learn Simple Context Free and Context Sensitive Languages". IEEE Transactions on Neural Networks. 12 (6): 1333–1340. doi:10.1109/72.963769. PMID 18249962. Arkivuar nga origjinali më 2020-01-26. Marrë më 2020-02-25. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref> LSTM ndihmoi në përmirësimin e përkthimit të makinës dhe modelimit të gjuhës.[124]
Teknika të tjera të rëndësishme në këtë fushë përfshijnë kampionimin negativ [1] dhe futjen e fjalëve. Futja e fjalëve, si word2vec, mund të shihet si një shtresë përfaqësuese në një arkitekturë të të mësuarit të thellë, e cila transformon një fjalë atomike në një përfaqësim pozicional që lidhet me fjalët e tjera në grupin e të dhënave. Ky pozicion përfaqësohet si një pikë në një hapësirë vektoriale , duke kapur kuptimin kontekstual dhe semantik të fjalëve. Kjo qasje përmirëson ndjeshëm aftësinë e modeleve për të kuptuar dhe gjeneruar gjuhë natyrore në mënyrë më të sofistikuar. Përdorimi i futjes së fjalëve si një shtresë hyrëse në një RNN i mundëson rrjetit të analizojë fjalitë dhe frazat duke përdorur një gramatikë vektoriale kompozicionale efektive. Kjo gramatikë mund të shihet si një zbatim i një gramatike probabilistike pa kontekst (PCFG), ku struktura e saj realizohet dhe mësohet nga RNN. Kjo i jep rrjetit aftësinë për të kuptuar marrëdhëniet semantike dhe sintaksore midis fjalëve, duke i përfaqësuar ato si kombinime të kuptimit të fjalëve individuale në një hapësirë vektoriale.[160] Koduesit automatikë rekurzivë të ndërtuar mbi futjet e fjalëve mund të vlerësojnë ngjashmërinë e fjalive dhe të zbulojnë parafrazimin.[160] Arkitekturat nervore të thella ofrojnë rezultatet më të mira për analizimin e konstituencës,[161] analizën e ndjenjave,[162] rikthimin e informacionit,[163][164] kuptimin e gjuhës së folur,[165] përkthimin në makinë,[124]Sutskever, L.; Vinyals, O.; Le, Q. (2014). "Sequence to Sequence Learning with Neural Networks" (PDF). Proc. NIPS. arXiv:1409.3215. Bibcode:2014arXiv1409.3215S. Arkivuar (PDF) nga origjinali më 2021-05-09. Marrë më 2017-06-13. {{cite journal}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)</ref>[166] lidhjen e entitetit kontekstual,[166][166] njohja e stilit të shkrimit,[167] njohja e entitetit të emërtuar (klasifikimi i tokenit),[168] klasifikimi i tekstit dhe të tjerë.[169]
Zhvillimet e fundit në të mësuarit e thellë kanë zgjeruar konceptin e futjes së fjalëve në futjen e fjalive. Në vend që të përfaqësojnë vetëm fjalë individuale në një hapësirë vektoriale, këto teknika përfshijnë të gjithë fjalinë, duke kapur kontekste më të gjera dhe marrëdhëniet ndërmjet fjalëve në mënyrë më komplekse. Këto përfaqësime, të gjeneruara nga modele si BERT, GPT, dhe InferSent, ndihmojnë në detyra të avancuara si përpunimi i gjuhës natyrore (NLP), përkthimi i saktë kontekstual dhe analizimi i kuptimeve komplekse në tekst.
Google Translate (GT) përdor një rrjet të madh memorie afatshkurtër (LSTM) nga fundi në fund për të trajtuar përkthimin e gjuhës në mënyrë më efikase dhe të saktë. [1][2][3][4] Ndërkohë, Google Neural Machine Translation (GNMT), që është motori bazë i GT, përdor një metodë të përkthimit makinerie të bazuar në shembuj, ku sistemi "mëson nga miliona shembuj" për të kuptuar dhe përkthyer tekstin në mënyrë më natyrale. Kjo qasje mbështetet te fuqia e të mësuarit të thellë për të kuptuar kontekstin dhe nuancat e gjuhës në nivel të thellë dhe kompleks.[170] Ai përkthen "fjali të tëra në një kohë, në vend të pjesëve". Google Translate mbështet mbi njëqind gjuhë.[170] Rrjeti kodon "semantikën e fjalisë në vend që thjesht të mësojë përmendësh përkthime nga fraza në frazë".[170][171] GT përdor anglishten si një ndërmjetës midis shumicës së çifteve gjuhësore.[171]
Zbulimi i barnave dhe toksikologjia
RedaktoNjë përqindje e konsiderueshme e barnave kandidate nuk arrijnë të fitojnë miratimin rregullator. Këto dështime zakonisht ndodhin për shkak të: Efikasitetit të pamjaftueshëm (ku ilaçi nuk arrin të prodhojë efektin e dëshiruar në objektivin biologjik), Ndërveprimeve të padëshiruara (që përfshijnë efektet jashtë objektivit të synuar, duke çuar në ndikime të padëshirueshme në proceset e tjera biologjike), efektet toksike të paparashikuara.[172][173] Hulumtimet kanë eksploruar përdorimin e të mësuarit të thellë për të parashikuar objektivat biomolekulare,[174][175] jashtë objektivave dhe efektet toksike të kimikateve mjedisore në lëndë ushqyese, produkte shtëpiake dhe ilaçe.[176][177]
AtomNet është një sistem i mësimit të thellë i krijuar për dizajnin racional të barnave të bazuara në strukturën molekulare. Duke përdorur arkitektura të avancuara si rrjetet nervore konvolucionale (CNN), AtomNet analizon strukturat tredimensionale të molekulave dhe objektivave biologjikë për të identifikuar potencialin e lidhjes dhe efektivitetin e barnave kandidate. Ky sistem është përdorur për të zbuluar molekula me potencial terapeutik, duke përshpejtuar procesin e zhvillimit të barnave dhe duke reduktuar kostot dhe kohën e nevojshme për kërkim.[178] AtomNet u përdor për të parashikuar biomolekulat e reja kandidate për objektivat e sëmundjeve si virusi Ebola [179] dhe skleroza e shumëfishtë.[180][179]
Në vitin 2017, rrjetet nervore grafike (GNN) u aplikuan për herë të parë për të parashikuar vetitë e ndryshme të molekulave në një grup të madh të dhënash toksikologjike. Ky qasje inovative përdori struktura grafike për të përfaqësuar molekulat, ku atomet konsideroheshin si nyje dhe lidhjet kimike si skaje. GNN-të mundësuan kapjen e marrëdhënieve komplekse midis atomeve dhe përmirësuan ndjeshëm saktësinë në parashikimin e toksicitetit dhe vetive të tjera kimike, duke shënuar një hap të rëndësishëm në zbatimin e mësimit të thellë në kimi dhe farmaceutikë.[181] Në vitin 2019, rrjetet nervore gjeneruese u përdorën për të prodhuar molekula që u vërtetuan eksperimentalisht deri në minj.[182]
Menaxhimi i marrëdhënieve me klientët
RedaktoMësimi i përforcimit të thellë është aplikuar për të përafruar vlerën e veprimeve të mundshme në marketingun e drejtpërdrejtë, të bazuara në variablat RFM (Recency, Frequency, Monetary). Funksioni i vlerës së vlerësuar u interpretua natyrshëm si një masë e vlerës së jetës së klientit.
Sistemet e rekomandimit
RedaktoSistemet e rekomandimeve kanë zbatuar të mësuarit e thellë për të nxjerrë veçori të rëndësishme që mbështesin modelet e faktorëve latentë, duke përmirësuar rekomandimet e bazuara në përmbajtjen e muzikës dhe sugjerimet e ditarit personal.[183][184] Mësimi i thellë me shumë pamje është aplikuar për të mësuar preferencat e përdoruesve nga fusha të shumta.[185] Modeli përdor një qasje hibride bashkëpunuese dhe të bazuar në përmbajtje dhe rrit rekomandimet në detyra të shumta.
Bioinformatika
RedaktoNjë autoenkoder ANN u përdor me sukses në bioinformatikë, për të parashikuar shënimet e ontologjisë së gjeneve dhe për të identifikuar marrëdhëniet midis gjeneve dhe funksioneve të tyre. Duke përdorur arkitekturën e autoenkoderit, modeli mësoi përfaqësime të ngjeshura dhe të rëndësishme të të dhënave biologjike, duke përmirësuar saktësinë në parashikimin e lidhjeve komplekse midis gjeneve dhe funksioneve të tyre në baza të dhënash me shkallë të gjerë. Kjo qasje ndihmoi në zbërthimin e marrëdhënieve biologjike që mund të mos ishin evidente me metodat tradicionale.[186]
Në informatikën mjekësore, mësimi i thellë u përdor për Parashikimin e cilësisë së gjumit duke analizuar të dhënat e mbledhura nga pajisjet e veshura [1], si orët inteligjente dhe sensorët, për të vlerësuar modelet dhe anomalitë e gjumit.[187] dhe parashikimet e komplikimeve shëndetësore nga të dhënat elektronike të të dhënave shëndetësore.[188]
Rrjetet nervore të thella kanë arritur rezultate të jashtëzakonshme në parashikimin e strukturës së proteinave bazuar në sekuencën e aminoacideve të tyre. Në vitin 2020, AlphaFold, një sistem i bazuar në mësimin e thellë, shënoi një nivel saktësie shumë më të lartë se të gjitha metodat llogaritëse të mëparshme.[189][190]
Vlerësimet e Rrjetit Neural të Thellë
RedaktoRrjetet nervore të thella mund të përdoren për të vlerësuar entropinë e një procesi stokastik dhe të quajtur Vlerësuesi i Entropisë së Përbashkët Neural (NJEE).[191] Një vlerësim i tillë ofron njohuri mbi efektet e variablave të rastësishme hyrëse në një variabël të rastësishëm të pavarur. Praktikisht, DNN është trajnuar si një klasifikues që harton një vektor hyrës ose matricë X në një shpërndarje probabiliteti të daljes mbi klasat e mundshme të ndryshores së rastësishme Y, duke pasur parasysh hyrjen X. Për shembull, në detyrat e klasifikimit të imazheve, NJEE harton një vektor pikselësh ' vlerat e ngjyrave ndaj probabiliteteve mbi klasat e mundshme të imazhit. Në praktikë, shpërndarja e probabilitetit të Y merret nga një shtresë Softmax me numër nyjesh që është i barabartë me madhësinë e alfabetit të Y. NJEE përdor funksione aktivizimi vazhdimisht të diferencueshme, duke përmbushur kushtet e kërkuara nga teorema e përafrimit universal. Kjo qasje ka treguar se siguron një vlerësues shumë të qëndrueshëm, duke ofruar performancë të shkëlqyer edhe kur alfabeti ka një madhësi të madhe. Në këto raste, NJEE ka tejkaluar ndjeshëm metodat e tjera, duke e bërë atë një zgjedhje të preferuar për aplikime ku përmasat e alfabetit janë të mëdha dhe kërkohet saktësi e lartë.[191]
Analiza e imazhit mjekësor
RedaktoTë mësuarit e thellë ka demonstruar rezultate konkurruese në aplikime mjekësore, duke përfshirë klasifikimin e qelizave kancerogjene, zbulimin e lezioneve, segmentimin e organeve dhe përmirësimin e cilësisë së imazheve mjekësore.[192][193] Mjetet bashkëkohore të të mësuarit të thellë kanë treguar saktësi të lartë në zbulimin e sëmundjeve të ndryshme dhe janë dëshmuar si mjete të dobishme për specialistët, duke ndihmuar në përmirësimin e efikasitetit të procesit të diagnostikimit.[194][195]
Reklamimi celular
RedaktoIdentifikimi i audiencës së duhur për reklamimin celular është një sfidë e vazhdueshme, pasi kërkon analizimin dhe vlerësimin e një sërë pikash të dhënash përpara krijimit dhe përdorimit të një segmenti të synuar në shërbimin e reklamave nga serverët e reklamave.[196] Mësimi i thellë është zbatuar për të analizuar dhe interpretuar grupe të dhënash të mëdha dhe komplekse nga fushatat reklamuese në internet. Gjatë ciklit të reklamimit, që përfshin kërkesën, shërbimin dhe klikimin, mblidhen pika të shumta të dhënash. Ky informacion mund të përdoret si bazë për algoritmet e mësimit të makinerive për të optimizuar përzgjedhjen dhe shfaqjen e reklamave.
Rivendosja e imazhit
RedaktoMësimi i thellë është përdorur me sukses për të adresuar probleme të anasjellta në përpunimin e imazheve dhe videove, si denoising, ku modelet heqin zhurmat nga imazhet ose videot për të rikuperuar detaje më të qarta. Gjithashtu, është aplikuar në super-rezolucion, duke përmirësuar imazhet me rezolucion të ulët për t'i bërë ato më të mprehta dhe më të detajuara. Një tjetër përdorim i rëndësishëm është inlying, ku identifikohen objekte ose elemente të rëndësishme brenda një imazhi, dhe colorization i filmave, që përfshin shtimin automatik të ngjyrave në filma bardhezi, duke i rikthyer ato në gjendjen e tyre origjinale ose duke u dhënë një pamje të re artistike. Këto zgjidhje kanë përmirësuar ndjeshëm efikasitetin dhe cilësinë e rezultateve në këto fusha.[197] Këto aplikacione përfshijnë metoda të të mësuarit, si "Fushat e tkurrjes për restaurimin efektiv të imazhit" [1], që trajnohen në një grup të dhënash të imazheve, dhe Deep Image Prior, që trajnohet specifikisht mbi imazhin që kërkon restaurim.
Zbulimi i mashtrimit financiar
RedaktoMësimi i thellë po zbatohet me sukses në fusha të ndryshme të financave dhe sigurisë, duke përfshirë: zbulimin e mashtrimit financiar ku modelet analizojnë sjelljet transaksionale për të identifikuar modele të pazakonta që sinjalizojnë mashtrime, Zbulimin e evazionit fiskal, duke përdorur të dhëna komplekse për të monitoruar dhe analizuar sjellje që shmangin detyrimet tatimore,[198] dhe Kundër pastrimit të parave, ku rrjetet nervore të thella ndihmojnë në identifikimin e aktiviteteve të dyshimta brenda transaksioneve financiare duke kapur modele të fshehura dhe varësi komplekse. Këto aplikime po përmirësojnë ndjeshëm aftësitë e institucioneve financiare dhe autoriteteve rregullatore për të zbuluar dhe parandaluar aktivitetet e paligjshme.[199]
Shkenca e materialeve
RedaktoNë nëntor 2023, studiuesit në Google DeepMind dhe Lawrence Berkeley National Laboratory prezantuan një sistem të avancuar të inteligjencës artificiale të quajtur GNoME. Ky sistem është krijuar për të trajtuar detyra komplekse në mënyrë efikase, duke kombinuar teknologjitë më të fundit në të mësuarit e thellë dhe modelimin e të dhënave shkencore. GNoME shënon një hap përpara në aplikimin e AI-së për problemet shkencore dhe inxhinierike, duke ofruar mundësi të reja për analizimin e të dhënave të mëdha dhe për nxjerrjen e përfundimeve të bazuara në modele komplekse. Ky sistem ka kontribuar në shkencën e materialeve duke zbuluar mbi 2 milionë materiale të reja brenda një afati kohor relativisht të shkurtër. GNoME përdor teknika të të mësuarit të thellë për të eksploruar në mënyrë efikase strukturat e mundshme materiale, duke arritur një rritje të konsiderueshme në identifikimin e strukturave të qëndrueshme kristal inorganike. Parashikimet e sistemit u vërtetuan përmes eksperimenteve autonome robotike, duke demonstruar një normë të dukshme suksesi prej 71%. Të dhënat e materialeve të zbuluara rishtazi janë bërë publike përmes bazës së të dhënave të Projektit Materiale, duke u mundësuar studiuesve të identifikojnë materialet me vetitë e kërkuara për aplikime të ndryshme. Ky zhvillim hap rrugën për përparime të reja në kërkimin shkencor dhe integrimin e AI në shkencën e materialeve, duke përshpejtuar procesin e inovacionit dhe ulur ndjeshëm kostot e zhvillimit të produkteve. Përdorimi i AI dhe mësimi i thellë ofron potencialin për të minimizuar ose eliminuar nevojën për eksperimente manuale laboratorike, duke i lejuar shkencëtarët të përqendrohen në hartimin dhe analizën e përbërjeve inovative.[200][201][202]
Ushtarake
RedaktoDepartamenti i Mbrojtjes i Shteteve të Bashkuara ka përdorur mësimin e thellë për të trajnuar robotët që të mësojnë dhe kryejnë detyra të reja duke përdorur teknika të bazuara në vëzhgim.[203]
Ekuacionet diferenciale të pjesshme
RedaktoRrjetet nervore të informuara nga fizika janë përdorur për të zgjidhur ekuacionet diferenciale të pjesshme si në problemet e përparme ashtu edhe në ato të anasjellta në një mënyrë të drejtuar nga të dhënat.[204] Një shembull është rindërtimi i rrjedhës së lëngjeve duke përdorur ekuacionet Navier-Stokes. Rrjetet nervore të informuara nga fizika eliminojnë nevojën për gjenerimin e rrjeteve të shtrenjta, të cilat janë zakonisht të domosdoshme në metodat konvencionale të Dinamikës Llogaritëse të Lëngjeve (CFD).[205][206]
Metoda e ekuacionit diferencial stokastik të prapambetur të thellë
RedaktoMetoda e ekuacionit diferencial stokastik të prapambetur të thellë është një qasje numerike që integron të mësuarit e thellë me ekuacionet diferenciale stokastike të prapambetura (BSDE). Kjo metodë është veçanërisht e efektshme për zgjidhjen e problemeve me dimensione të larta, duke gjetur aplikim të gjerë në fushën e matematikës financiare. Duke shfrytëzuar aftësitë e fuqishme të përafrimit të funksioneve të rrjeteve nervore të thella, BSDE e thellë adreson sfidat llogaritëse me të cilat përballen metodat tradicionale numerike në mjedise me dimensione të larta. Metodat tradicionale, si metodat e diferencës së fundme apo simulimet Monte Carlo, shpesh përballen me sfidën e mallkimit të dimensionalitetit, ku kostoja llogaritëse rritet eksponencialisht me numrin e dimensioneve. Në kontrast, metodat e thella BSDE përdorin rrjete nervore të thella për të përafruar zgjidhjet e ekuacioneve diferenciale të pjesshme (PDE) me dimensione të larta, duke reduktuar në mënyrë efektive kompleksitetin dhe barrën llogaritëse.[207]
Integrimi i rrjeteve nervore të informuara nga fizika (PINN) në kuadrin e thellë BSDE përmirëson ndjeshëm aftësitë e tij, duke inkorporuar ligjet fizike themelore drejtpërdrejt në arkitekturën e rrjetit nervor. Kjo qasje siguron që zgjidhjet jo vetëm që përshtaten me të dhënat, por gjithashtu respektojnë ekuacionet diferenciale stokastike. PINN-të kombinojnë fuqinë e të mësuarit të thellë me kufizimet e përcaktuara nga modelet fizike, duke rezultuar në zgjidhje më të sakta dhe më të besueshme për problemet komplekse në matematikën financiare.
Rindërtimi i imazhit
RedaktoRindërtimi i imazhit përfshin rikrijimin e imazheve origjinale nga matjet që lidhen me to. Studime të ndryshme kanë treguar se metodat e të mësuarit të thellë ofrojnë performancë më të lartë dhe superiore krahasuar me metodat analitike, veçanërisht në aplikime të ndryshme si rindërtimi i imazheve spektrale[208] dhe imazhet me ultratinguj.[209]
Parashikimi i motit
RedaktoSistemet tradicionale të parashikimit të motit përdorin zgjidhjen e sistemeve komplekse të ekuacioneve diferenciale të pjesshme për të modeluar ndryshimet atmosferike. GraphCast, një model i bazuar në të mësuarit e thellë, është trajnuar mbi një sasi të madhe të dhënash historike të motit për të parashikuar ndryshimet në modelet e motit me kalimin e kohës. Ky model mund të parashikojë kushtet e motit deri në 10 ditë në nivel global, duke ofruar një nivel shumë të detajuar brenda më pak se një minute, me një saktësi të krahasueshme me sistemet tradicionale moderne.[210][211]
Ora epigjenetike
RedaktoNjë orë epigjenetike është një test biokimik që mat moshën biologjike bazuar në ndryshimet epigjenetike. Galkin et al. përdorën rrjete nervore të thella për të trajnuar një orë epigjenetike për matjen e plakjes, duke arritur një nivel të lartë saktësie duke analizuar mbi 6,000 mostra gjaku.[212] Ora përdor informacion nga 1000 faqe CpG dhe parashikon njerëz me kushte të caktuara më të vjetër se kontrollet e shëndetshme: IBD, demencë frontotemporale, kancer ovarian, obezitet . Ora e vjetërimit ishte planifikuar të lëshohej për përdorim publik në vitin Ora e plakjes ishte planifikuar për t'u bërë publike në vitin 2021 nga Deep Longevity, një kompani spinoff e Insilico Medicine.
Lidhja me zhvillimin kognitiv dhe trurin e njeriut
RedaktoTë mësuarit e thellë është i lidhur ngushtë me një klasë të teorive të zhvillimit të trurit (veçanërisht, zhvillimin neokortikal) të propozuara nga neuroshkencëtarët kognitiv në fillim të viteve 1990.[213][214][215][216] Këto teori zhvillimore u përkthyen në modele llogaritëse, duke i bërë ato pararendëse të sistemeve moderne të të mësuarit të thellë. Modelet e zhvillimit ndajnë një tipar kryesor: dinamikat e të mësuarit në tru, të tilla si valët e faktorit të rritjes nervore, mbështesin procese të vetëorganizimit, të ngjashme me mekanizmat e rrjeteve nervore të përdorura në të mësuarin e thellë. Ashtu si neokorteksi, rrjetet nervore operojnë përmes një hierarkie filtrash me shumë shtresa, ku secila shtresë përpunon informacionin nga shtresa e mëparshme (ose mjedisi hyrës) dhe më pas dërgon daljen e saj, ndonjëherë së bashku me hyrjen fillestare, në shtresat pasuese. Ky proces krijon një sistem të vetë-organizuar të transduktorëve, i cili është i mirëpërshtatur për mjedisin e tij operativ. Një përshkrim nga viti 1995 shpjegonte: "... truri i foshnjës duket se organizohet nën ndikimin e valëve të faktorëve trofikë, ku rajonet e ndryshme të trurit lidhen dhe maturohen në mënyrë sekuenciale, me secilën shtresë që piqet para tjetrës, derisa i gjithë truri të arrijë maturimin."
Një gamë e gjerë qasjesh është përdorur për të eksploruar besueshmërinë e modeleve të të mësuarit të thellë nga një perspektivë neurobiologjike. Nga njëra anë, janë zhvilluar disa variante të algoritmit të përhapjes së pasme për të rritur përputhshmërinë e tij me proceset reale të përpunimit në tru.[217][218] Disa studiues kanë sugjeruar që format e pambikëqyrura të të mësuarit të thellë, si ato të bazuara në modele gjeneruese hierarkike dhe rrjetet e besimit të thellë, mund të reflektojnë më saktë realitetin biologjik.[219][220] Në këtë kontekst, modelet gjeneruese të rrjeteve nervore janë lidhur me provat neurobiologjike që sugjerojnë se korteksi cerebral përdor një proces përpunimi të bazuar në kampionim për të analizuar dhe interpretuar informacionin.[221]
Edhe pse një krahasim i plotë dhe sistematik midis organizimit të trurit të njeriut dhe kodimit neuronal në rrjetet e thella ende nuk është realizuar, disa analogji janë raportuar. Për shembull, funksionet llogaritëse të njësive në rrjetet e thella nervore shpesh krahasohen me proceset që kryhen nga neuronet biologjike, duke sugjeruar ngjashmëri konceptuale midis tyre[222] dhe popullatave nervore.[223] Në mënyrë të ngjashme, përfaqësimet e zhvilluara nga modelet e të mësuarit të thellë janë të ngjashme me ato të matura në sistemin vizual të primatit [224] si në nivelet me një njësi [225] dhe në nivelet e popullsisë.[226]
Veprimtaria tregtare
RedaktoLaboratori i AI i Facebook është i përfshirë në zhvillimin e teknologjive të avancuara, si etiketimi automatik i fotografive të ngarkuara, duke përdorur algoritme të të mësuarit të thellë për të identifikuar dhe etiketuar emrat e njerëzve që shfaqen në to. Kjo teknologji bazohet në njohjen e fytyrës dhe vizionin kompjuterik, duke e bërë më të lehtë për përdoruesit organizimin dhe ndarjen e përmbajtjes së tyre vizuale.
DeepMind Technologies pjesë e Google, zhvilloi një sistem inovativ të inteligjencës artificiale të aftë për të mësuar të luajë videolojëra Atari duke përdorur vetëm pikselët e ekranit si hyrje të të dhënave. Ky sistem, i bazuar në teknika të të mësuarit të thellë përforcues (Deep Reinforcement Learning), mësoi të optimizojë strategjitë e lojës për të maksimizuar pikët, duke demonstruar aftësinë për të mësuar sjellje komplekse vetëm nga informacioni vizual dhe shpërblimet e lojës. Ky projekt hapi rrugën për aplikime të avancuara në të mësuarit autonom. Në vitin 2015 ata demonstruan sistemin e tyre AlphaGo, i cili e mësoi lojën e Go mjaft mirë për të mposhtur një lojtar profesionist të Go.[227][228][229] Google Translate përdor një rrjet nervor për të përkthyer midis më shumë se 100 gjuhëve.
Në vitin 2017, u themelua Covariant.ai, një kompani që përqendrohet në përdorimin e teknologjisë së të mësuarit të thellë për të integruar inteligjencën artificiale në proceset e fabrikave, duke synuar të përmirësojë automatizimin dhe efikasitetin operacional.[230]
Që nga viti 2008,[231] kërkuesit në Universitetin e Teksasit në Austin (UT) zhvilluan një kornizë të mësimit të makinerive të quajtur Trajnimi i një agjenti manualisht nëpërmjet përforcimit vlerësues, ose TAMER, i cili propozoi metoda të reja për robotët ose programet kompjuterike për të mësuar se si të kryejnë detyrat. duke ndërvepruar me një instruktor njerëzor.[203]"Army researchers develop new algorithms to train robots". EurekAlert!. Arkivuar nga origjinali më 28 gusht 2018. Marrë më 29 gusht 2018. {{cite web}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)</ref> Fillimisht i zhvilluar si TAMER, një algoritëm i përmirësuar i quajtur Deep TAMER u prezantua në vitin 2018 në kuadër të një bashkëpunimi midis Laboratorit Kërkimor të Ushtrisë Amerikane (ARL) dhe studiuesve nga Universiteti i Teksasit (UT). Deep TAMER shfrytëzoi mësimin e thellë për t'i mundësuar një roboti të mësojë detyra të reja përmes vëzhgimit të sjelljeve dhe udhëzimeve njerëzore.[203] Me përdorimin e Deep TAMER, një robot mësoi një detyrë duke vëzhguar një trajner njerëzor, qoftë përmes transmetimeve video apo duke ndjekur një njeri që kryente detyrën në mënyrë direkte. Pas kësaj, roboti praktikoi detyrën, duke marrë reagime nga trajneri gjatë stërvitjes, si p.sh., vlerësime të tilla si "punë e mirë" ose "punë e keqe," për të përmirësuar performancën e tij.[232]
Kritika dhe komente
RedaktoTë mësuarit e thellë ka qenë subjekt i kritikave dhe komenteve, shpeshherë edhe nga ekspertë jashtë fushës së shkencës kompjuterike, të cilët kanë vënë në dukje kufizimet, kompleksitetin dhe ndikimet e tij në fusha të ndryshme.
Teoria
RedaktoNjë kritikë kryesore ka të bëjë me mungesën e teorisë që rrethon disa metoda.[233] Mësimi në arkitekturat më të zakonshme të thella zakonisht zbatohet përmes zbritjes së gradientit, një metodë e mirëstudiuar dhe e kuptuar. Megjithatë, teoria që mbështet algoritme alternative, si divergjenca kontrastive, është ende më pak e zhvilluar dhe kuptohet më pak në krahasim.[ citim i nevojshëm ] (P.sh., A konvergohet algoritmi? Nëse po, me çfarë shpejtësie? Dhe çfarë përafrimi siguron?) Metodat e të mësuarit të thellë shpesh perceptohen si një "kuti e zezë," ku shumica e rezultateve dhe konfirmimeve bazohen kryesisht në prova empirike, ndërsa kuptimi teorik mbetet i kufizuar.[234]
Disa ekspertë argumentojnë se mësimi i thellë duhet të konsiderohet si një hap drejt arritjes së Inteligjencës Artificiale të fortë, por jo si një zgjidhje gjithëpërfshirëse. Megjithëse metodat e të mësuarit të thellë janë jashtëzakonisht të fuqishme, ato ende nuk përfshijnë shumë nga funksionalitetet e nevojshme për të realizuar plotësisht këtë qëllim. Psikologu hulumtues Gary Marcus theksoi:
Realisht, mësimi i thellë është vetëm një pjesë e sfidës më të madhe të ndërtimit të makinave inteligjente. Teknikave të tilla u mungojnë mënyrat e paraqitjes së marrëdhënieve shkakësore (…) nuk kanë mënyra të dukshme për të kryer konkluzionet logjike, dhe ato janë gjithashtu ende shumë larg nga integrimi i njohurive abstrakte, të tilla si informacioni se çfarë janë objektet, për çfarë shërbejnë dhe si ato përdoren zakonisht. Sistemet më të fuqishme të AI, si Watson (…) përdorin teknika si të mësuarit e thellë si vetëm një element në një grup teknikash shumë të komplikuar, duke filluar nga teknika statistikore e konkluzioneve Bayesian deri te arsyetimi deduktiv .
Në përputhje me idenë se ndjeshmëria artistike mund të shfaqet në nivele të ulëta të hierarkisë njohëse, është publikuar një seri grafikësh që tregojnë gjendjet e brendshme të rrjeteve nervore të thella me 20-30 shtresa. Këto grafikë ilustrojnë përpjekjet e rrjeteve për të identifikuar, brenda të dhënave kryesisht të rastësishme, imazhet për të cilat ishin trajnuar.[1] Ky vizualizim i krijoi një tërheqje të madhe vizuale: njoftimi i kërkimit mori mbi 1000 komente dhe për një kohë ishte artikulli më i vizituar në faqen e internetit të The Guardian.[235]
Gabimet
RedaktoDisa arkitektura të mësimit të thellë shfaqin sjellje problematike që sfidojnë besueshmërinë dhe performancën e tyre. Një nga këto sjellje është klasifikimi i gabuar dhe i sigurt i imazheve të panjohura, duke i përfshirë ato gabimisht në një kategori të njohur imazhesh të zakonshme. Ky fenomen u identifikua në vitin 2014 dhe tregon se modelet e të mësuarit të thellë mund të mbështeten në modele sipërfaqësore të të dhënave, duke mos kuptuar thellësisht natyrën e tyre. Po ashtu, një tjetër problem i rëndësishëm, i raportuar në vitin 2013, është ndjeshmëria ndaj shqetësimeve të vogla në imazhe. Edhe modifikime të papërfillshme, shpesh të padukshme për syrin e njeriut, mund të çojnë në klasifikime të gabuara, duke nxjerrë në pah cenueshmërinë e këtyre sistemeve ndaj ndryshimeve të qëllimshme ose aksidentale. Këto probleme tregojnë nevojën për qasje më të qëndrueshme dhe të sigurta në trajnimin dhe dizajnimin e rrjeteve nervore.[236] Goertzel hipotezoi se këto sjellje janë për shkak të kufizimeve në paraqitjet e tyre të brendshme dhe se këto kufizime do të pengonin integrimin në arkitekturat heterogjene me shumë komponentë të inteligjencës së përgjithshme artificiale (AGI).[237] Këto sfida mund të trajtohen nga arkitekturat e të mësuarit të thellë, të cilat krijojnë brenda vetes gjendje që homologohen me zbërthimet gramatikore të imazheve, duke mundësuar një përfaqësim më të sofistikuar dhe të strukturuar të të dhënave vizuale.[238] të entiteteve dhe ngjarjeve të vëzhguara.[237] Mësimi i një gramatike (vizuale ose gjuhësore) nga të dhënat e trajnimit do të ishte ekuivalente me kufizimin e sistemit në arsyetimin e logjikshëm që funksionon mbi konceptet për sa i përket rregullave të prodhimit gramatikor dhe është një qëllim themelor i përvetësimit të gjuhës njerëzore dhe inteligjencës artificiale (AI).[239]
Kërcënimi kibernetik
RedaktoNdërsa mësimi i thellë lëviz nga laboratori në botë, kërkimet dhe përvoja tregojnë se rrjetet nervore artificiale janë të prekshme ndaj hakimeve dhe mashtrimeve.[240] Duke analizuar modelet që përdorin këto sisteme për funksionim, sulmuesit mund të manipulojnë hyrjet në një rrjet nervor artificial (ANN) në mënyrë që të gjenerojnë përputhje që nuk do të ishin të dukshme për një vëzhgues njerëzor. Për shembull, një sulmues mund të bëjë ndryshime të vogla dhe delikate në një imazh, duke bërë që ANN ta identifikojë atë si objektivin e kërkimit, edhe pse për një person, imazhi nuk ka asnjë ngjashmëri. Ky manipulim i qëllimshëm quhet "sulm kundërshtar."[241]
Në vitin 2016, studiuesit përdorën një rrjet nervor artificial (ANN) për të manipuluar imazhet në mënyrë provë dhe gabim, duke identifikuar pikat e dobëta të modelit dhe duke krijuar imazhe që e mashtronin atë. Për sytë e njeriut, këto imazhe të modifikuara dukeshin identike me origjinalet. Një grup tjetër studiuesish tregoi se printimet e këtyre imazheve të manipuluara, edhe pasi u fotografuan, mashtruan me sukses një sistem klasifikimi të imazheve, duke demonstruar cenueshmërinë e rrjeteve nervore ndaj sulmeve kundërshtare.[242] Një nga masat mbrojtëse kundër mashtrimeve të tilla është kërkimi i kundërt i imazhit, ku një imazh i dyshuar dërgohet në platforma si TinEye për të identifikuar versione të tjera të tij ose burimin origjinal. Një përmirësim i kësaj metode është kërkimi duke përdorur vetëm fragmente të imazhit, duke ndihmuar në zbulimin e imazheve nga të cilat mund të jetë marrë ajo pjesë, duke ofruar një analizë më të detajuar të autenticitetit të tij.[243]
Një grup tjetër hulumtues zbuloi se disa shfaqje psikedelike mund të mashtronin sistemin e njohjes së fytyrës duke i bërë ato të mendojnë se njerëzit e zakonshëm ishin të famshëm. Kjo teknikë potencialisht mund të lejojë një person të imitojë identitetin e një tjetri, duke ngritur shqetësime për sigurinë dhe privatësinë në sistemet biometrike. Ky zbulim thekson sfidat e sigurisë që lidhen me keqpërdorimin e teknologjive të të mësuarit të thellë dhe të njohjes së fytyrës. Në vitin 2017 studiuesit shtuan ngjitëse për tabelat e ndalimit dhe shkaktuan që një ANN t'i keqklasifikonte ato.[242]
Megjithatë, rrjetet nervore artificiale (ANN) mund të trajnohen më tej për të zbuluar përpjekjet për mashtrim, duke u bërë mjete të fuqishme për të identifikuar sjelljet e dyshimta dhe aktivitetet mashtruese. Kjo mund të çojë në një garë armësh midis sulmuesve dhe mbrojtësve, të ngjashme me atë që shihet në industrinë e mbrojtjes kundër malware . ANN-të janë trajnuar për të mposhtur softuerin anti-malware të bazuar në ANN duke sulmuar në mënyrë të përsëritur një mbrojtje me malware që ndryshohej vazhdimisht nga një algoritëm gjenetik derisa mashtroi anti-malware duke ruajtur aftësinë e tij për të dëmtuar objektivin.[242]
Në vitin 2016, një grup tjetër studiuesish tregoi se tinguj të caktuar mund të manipulonin sistemin e komandës zanore të Google Now, duke e detyruar atë të hapte një adresë specifike ueb. Ata sugjeruan se një sulm i tillë mund të përdorej si hap i parë për sulme më të avancuara, si hapja e një faqeje interneti që përmban malware të llojit "drive-by".[242]
"Helmimi i të dhënave" është një teknikë sulmi në të cilën të dhëna të rreme ose të manipuluara futen me qëllim në grupin e trajnimit të një sistemi të mësimit të makinerive. Kjo ndërhyrje synon të pengojë sistemin që të arrijë performancën optimale ose ta drejtojë atë drejt rezultateve të pasakta.[242]"AI Is Easy to Fool—Why That Needs to Change". Singularity Hub. 10 tetor 2017. Arkivuar nga origjinali më 11 tetor 2017. Marrë më 11 tetor 2017. {{cite news}}
: Mungon ose është bosh parametri |language=
(Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)</ref>
Etika e mbledhjes së të dhënave
RedaktoSistemet e të mësuarit të thellë që përdorin mësimin e mbikëqyrur zakonisht mbështeten në të dhëna të krijuara dhe/ose të shënuara nga njerëzit. Ky proces përfshin sigurimin e shembujve të etiketuar (p.sh., imazhe me kategori, tekst me etiketa emocionale, ose të dhëna mjekësore të diagnostikuara) që modelet mund të përdorin për të mësuar marrëdhëniet dhe modelet midis hyrjeve dhe daljeve. Cilësia dhe sasia e të dhënave të shënuara janë kritike për performancën e këtyre sistemeve, duke e bërë mbledhjen dhe etiketimin e të dhënave një aspekt thelbësor të procesit të trajnimit.[244] Është argumentuar se jo vetëm klikimet me pagesë të ulët (siç është Amazon Mechanical Turk ) përdoren rregullisht për këtë qëllim, por edhe forma të nënkuptuara të mikropunës njerëzore që shpesh nuk njihen si të tilla.[245] Filozofi Rainer Mühlhoff dallon pesë lloje të "kapjes mekanike" të mikropunës njerëzore për të gjeneruar të dhëna trajnimi: (1) gamifikimi (ngulitja e detyrave të shënimit ose llogaritjes në rrjedhën e një loje), (2) "kurthi dhe gjurmimi" (p.sh. CAPTCHA për njohjen e imazhit ose ndjekjen e klikimeve në faqet e rezultateve të kërkimit të Google ), (3) shfrytëzimin e motivimeve sociale (p.sh. etiketimi i fytyrave në Facebook për të marrë imazhe të etiketuara të fytyrës), (4) nxjerrja e informacionit (p.sh. duke përdorur pajisje të vetëvlerësuara si gjurmuesit e aktivitetit ) dhe (5) puna e klikimit.[245]
Shihni gjithashtu
Redakto- Aplikimet e inteligjencës artificiale
- Krahasimi i softuerit të të mësuarit të thellë
- Ndjeshmëri e ngjeshur
- Programim i diferencuar
- Rrjeti shtetëror jehonë
- Lista e projekteve të inteligjencës artificiale
- Makinë në gjendje të lëngshme
- Lista e grupeve të të dhënave për kërkimin e të mësuarit në makinë
- Llogaritja e rezervuarit
- Hapësira e shkallës dhe mësimi i thellë
- Kodimi i rrallë
- Papagalli stokastik
- Mësimi i thellë topologjik
Referencat
Redakto- ^ Schulz, Hannes; Behnke, Sven (1 nëntor 2012). "Deep Learning". KI – Künstliche Intelligenz (në anglisht). 26 (4): 357–363. doi:10.1007/s13218-012-0198-z. ISSN 1610-1987.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ a b LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). "Deep Learning" (PDF). Nature (në english). 521 (7553): 436–444. Bibcode:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). "Multi-column deep neural networks for image classification". 2012 IEEE Conference on Computer Vision and Pattern Recognition (në english). fq. 3642–3649. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffrey (2012). "ImageNet Classification with Deep Convolutional Neural Networks" (PDF). NIPS 2012: Neural Information Processing Systems, Lake Tahoe, Nevada (në english). Arkivuar (PDF) nga origjinali më 2017-01-10. Marrë më 2017-05-24.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Google's AlphaGo AI wins three-match series against the world's best Go player". TechCrunch (në english). 25 maj 2017. Arkivuar nga origjinali më 17 qershor 2018. Marrë më 17 qershor 2018.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Study urges caution when comparing neural networks to the brain". MIT News | Massachusetts Institute of Technology (në anglisht). 2022-11-02. Marrë më 2023-12-06.
- ^ a b c d Bengio, Yoshua (2009). "Learning Deep Architectures for AI" (PDF). Foundations and Trends in Machine Learning (në english). 2 (1): 1–127. CiteSeerX 10.1.1.701.9550. doi:10.1561/2200000006. Arkivuar nga origjinali (PDF) më 4 mars 2016. Marrë më 3 shtator 2015.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c d e Bengio, Y.; Courville, A.; Vincent, P. (2013). "Representation Learning: A Review and New Perspectives". IEEE Transactions on Pattern Analysis and Machine Intelligence (në english). 35 (8): 1798–1828. arXiv:1206.5538. doi:10.1109/tpami.2013.50. PMID 23787338.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c d e f g h Schmidhuber, J. (2015). "Deep Learning in Neural Networks: An Overview". Neural Networks. 61: 85–117. arXiv:1404.7828. doi:10.1016/j.neunet.2014.09.003. PMID 25462637.
{{cite journal}}
: Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Shigeki, Sugiyama (12 prill 2019). Human Behavior and Another Kind in Consciousness: Emerging Research and Opportunities: Emerging Research and Opportunities (në anglisht). IGI Global. ISBN 978-1-5225-8218-2.
{{cite book}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ Aizenberg, I.N.; Aizenberg, N.N.; Vandewalle, J. (2000). Multi-Valued and Universal Binary Neurons (në english). Science & Business Media. doi:10.1007/978-1-4757-3115-6. ISBN 978-0-7923-7824-2. Marrë më 27 dhjetor 2023.
{{cite book}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Fradkov, Alexander L. (2020-01-01). "Early History of Machine Learning". IFAC-PapersOnLine. 21st IFAC World Congress (në english). 53 (2): 1385–1390. doi:10.1016/j.ifacol.2020.12.1888. ISSN 2405-8963.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c Cybenko (1989). "Approximations by superpositions of sigmoidal functions" (PDF). Mathematics of Control, Signals, and Systems (në english). 2 (4): 303–314. Bibcode:1989MCSS....2..303C. doi:10.1007/bf02551274. Arkivuar nga origjinali (PDF) më 10 tetor 2015.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c Hornik, Kurt (1991). "Approximation Capabilities of Multilayer Feedforward Networks". Neural Networks (në english). 4 (2): 251–257. doi:10.1016/0893-6080(91)90009-t.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Haykin, Simon S. (1999). Neural Networks: A Comprehensive Foundation (në english). Prentice Hall. ISBN 978-0-13-273350-2.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Hassoun, Mohamad H. (1995). Fundamentals of Artificial Neural Networks. MIT Press. fq. 48. ISBN 978-0-262-08239-6.
{{cite book}}
: Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Orhan, A. E.; Ma, W. J. (2017). "Efficient probabilistic inference in generic neural networks trained with non-probabilistic feedback". Nature Communications (në english). 8 (1): 138. Bibcode:2017NatCo...8..138O. doi:10.1038/s41467-017-00181-8. PMC 5527101. PMID 28743932.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c d e Deng, L.; Yu, D. (2014). "Deep Learning: Methods and Applications" (PDF). Foundations and Trends in Signal Processing (në english). 7 (3–4): 1–199. doi:10.1561/2000000039. Arkivuar (PDF) nga origjinali më 2016-03-14. Marrë më 2014-10-18.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c d Murphy, Kevin P. (24 gusht 2012). Machine Learning: A Probabilistic Perspective (në english). MIT Press. ISBN 978-0-262-01802-9.
{{cite book}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Fukushima, K. (1969). "Visual feature extraction by a multilayered network of analog threshold elements". IEEE Transactions on Systems Science and Cybernetics (në english). 5 (4): 322–333. doi:10.1109/TSSC.1969.300225.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Sonoda, Sho; Murata, Noboru (2017). "Neural network with unbounded activation functions is universal approximator". Applied and Computational Harmonic Analysis (në english). 43 (2): 233–268. arXiv:1505.03654. doi:10.1016/j.acha.2015.12.005.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Hinton, G.E. (2009). "Deep belief networks". Scholarpedia. 4 (5): 5947. Bibcode:2009SchpJ...4.5947H. doi:10.4249/scholarpedia.5947.
{{cite journal}}
: Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Bishop, Christopher M. (2006). Pattern Recognition and Machine Learning (PDF) (në english). Springer. ISBN 978-0-387-31073-2. Arkivuar (PDF) nga origjinali më 2017-01-11. Marrë më 2017-08-06.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b "bibliotheca Augustana". www.hs-augsburg.de (në english).
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Brush, Stephen G. (1967). "History of the Lenz-Ising Model". Reviews of Modern Physics (në english). 39 (4): 883–893. Bibcode:1967RvMP...39..883B. doi:10.1103/RevModPhys.39.883.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Amari, Shun-Ichi (1972). "Learning patterns and pattern sequences by self-organizing nets of threshold elements". IEEE Transactions (në english). C (21): 1197–1206.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c A bot will complete this citation soon. Click here to jump the queue arXiv:[1].
- ^ Hopfield, J. J. (1982). "Neural networks and physical systems with emergent collective computational abilities". Proceedings of the National Academy of Sciences (në english). 79 (8): 2554–2558. Bibcode:1982PNAS...79.2554H. doi:10.1073/pnas.79.8.2554. PMC 346238. PMID 6953413.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Nakano, Kaoru (1971). "Learning Process in a Model of Associative Memory". Pattern Recognition and Machine Learning (në english). fq. 172–186. doi:10.1007/978-1-4615-7566-5_15. ISBN 978-1-4615-7568-9.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Nakano, Kaoru (1972). "Associatron-A Model of Associative Memory". IEEE Transactions on Systems, Man, and Cybernetics (në english). SMC-2 (3): 380–388. doi:10.1109/TSMC.1972.4309133.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Turing, Alan (1948). "Intelligent Machinery". Unpublished (Later Published in Ince DC, Editor, Collected Works of AM Turing—Mechanical Intelligence, Elsevier Science Publishers, 1992) (në english).
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Rosenblatt, Frank (1962). Principles of Neurodynamics (në english). Spartan, New York.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Joseph, R. D. (1960). Contributions to Perceptron Theory, Cornell Aeronautical Laboratory Report No. VG-11 96--G-7, Buffalo (në english).
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Ivakhnenko, A. G.; Lapa, V. G. (1967). Cybernetics and Forecasting Techniques (në english). American Elsevier Publishing Co. ISBN 978-0-444-00020-0.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Ivakhnenko, A.G. (mars 1970). "Heuristic self-organization in problems of engineering cybernetics". Automatica (në anglisht). 6 (2): 207–219. doi:10.1016/0005-1098(70)90092-0.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ a b Ivakhnenko, Alexey (1971). "Polynomial theory of complex systems" (PDF). IEEE Transactions on Systems, Man, and Cybernetics (në english). SMC-1 (4): 364–378. doi:10.1109/TSMC.1971.4308320. Arkivuar (PDF) nga origjinali më 2017-08-29. Marrë më 2019-11-05.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Robbins, H.; Monro, S. (1951). "A Stochastic Approximation Method". The Annals of Mathematical Statistics (në english). 22 (3): 400. doi:10.1214/aoms/1177729586.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Amari, Shun'ichi (1967). "A theory of adaptive pattern classifier". IEEE Transactions (në english). EC (16): 279–307.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Ramachandran. "Searching for Activation Functions".
{{cite arXiv}}
: Kërkohet|arxiv=
(Ndihmë!); Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Fukushima, K. (1979). "Neural network model for a mechanism of pattern recognition unaffected by shift in position—Neocognitron". Trans. IECE (In Japanese) (në english). J62-A (10): 658–665. doi:10.1007/bf00344251. PMID 7370364.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Fukushima, K. (1980). "Neocognitron: A self-organizing neural network model for a mechanism of pattern recognition unaffected by shift in position". Biol. Cybern. (në english). 36 (4): 193–202. doi:10.1007/bf00344251. PMID 7370364.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Leibniz, Gottfried Wilhelm Freiherr von (1920). The Early Mathematical Manuscripts of Leibniz: Translated from the Latin Texts Published by Carl Immanuel Gerhardt with Critical and Historical Notes (Leibniz published the chain rule in a 1676 memoir) (në anglisht). Open court publishing Company. ISBN 978-0-598-81846-1.
- ^ Kelley, Henry J. (1960). "Gradient theory of optimal flight paths". ARS Journal (në english). 30 (10): 947–954. doi:10.2514/8.5282.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Linnainmaa, Seppo. The representation of the cumulative rounding error of an algorithm as a Taylor expansion of the local rounding errors (Tezë) (në finlandisht). University of Helsinki.
- ^ Linnainmaa, Seppo (1976). "Taylor expansion of the accumulated rounding error". BIT Numerical Mathematics (në english). 16 (2): 146–160. doi:10.1007/bf01931367.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Schmidhuber, Juergen (25 tet 2014). "Who Invented Backpropagation?" (në english). IDSIA, Switzerland. Arkivuar nga origjinali më 30 korrik 2024. Marrë më 14 sht 2024.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Werbos, Paul (1982). "Applications of advances in nonlinear sensitivity analysis" (PDF). System modeling and optimization (në english). Springer. fq. 762–770. Arkivuar (PDF) nga origjinali më 14 prill 2016. Marrë më 2 korrik 2017.
{{cite book}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Werbos, Paul J. (1994). The Roots of Backpropagation : From Ordered Derivatives to Neural Networks and Political Forecasting (në english). New York: John Wiley & Sons. ISBN 0-471-59897-6.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (tetor 1986). "Learning representations by back-propagating errors". Nature (në anglisht). 323 (6088): 533–536. Bibcode:1986Natur.323..533R. doi:10.1038/323533a0. ISSN 1476-4687.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ Zhang, Wei (1988). "Shift-invariant pattern recognition neural network and its optical architecture". Proceedings of Annual Conference of the Japan Society of Applied Physics (në english).
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Zhang, Wei (1990). "Parallel distributed processing model with local space-invariant interconnections and its optical architecture". Applied Optics (në english). 29 (32): 4790–7. Bibcode:1990ApOpt..29.4790Z. doi:10.1364/AO.29.004790. PMID 20577468.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Zhang, Wei (1991). "Image processing of human corneal endothelium based on a learning network". Applied Optics (në english). 30 (29): 4211–7. Bibcode:1991ApOpt..30.4211Z. doi:10.1364/AO.30.004211. PMID 20706526.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Zhang, Wei (1994). "Computerized detection of clustered microcalcifications in digital mammograms using a shift-invariant artificial neural network". Medical Physics (në english). 21 (4): 517–24. Bibcode:1994MedPh..21..517Z. doi:10.1118/1.597177. PMID 8058017.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ LeCun, Yann; Léon Bottou; Yoshua Bengio; Patrick Haffner (1998). "Gradient-based learning applied to document recognition" (PDF). Proceedings of the IEEE (në english). 86 (11): 2278–2324. CiteSeerX 10.1.1.32.9552. doi:10.1109/5.726791. Marrë më tetor 7, 2016.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Jordan, Michael I. (1986). "Attractor dynamics and parallelism in a connectionist sequential machine". Proceedings of the Annual Meeting of the Cognitive Science Society (në anglisht). 8.
- ^ Elman, Jeffrey L. (mars 1990). "Finding Structure in Time". Cognitive Science (në anglisht). 14 (2): 179–211. doi:10.1207/s15516709cog1402_1. ISSN 0364-0213.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ a b c Schmidhuber, Jürgen (prill 1991). "Neural Sequence Chunkers" (PDF). TR FKI-148, TU Munich (në english).
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Schmidhuber, Jürgen (1992). "Learning complex, extended sequences using the principle of history compression (based on TR FKI-148, 1991)" (PDF). Neural Computation (në english). 4 (2): 234–242. doi:10.1162/neco.1992.4.2.234.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Gabim referencash: Etiketë
<ref>
e pavlefshme; asnjë tekst nuk u dha për refs e quajturaHOCH1991
- ^ Hochreiter, S.; etj. (15 janar 2001). "Gradient flow in recurrent nets: the difficulty of learning long-term dependencies". përmbledhur nga Kolen, John F.; Kremer, Stefan C. (red.). A Field Guide to Dynamical Recurrent Networks (në english). John Wiley & Sons. ISBN 978-0-7803-5369-5.
{{cite book}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Gers, Felix; Schmidhuber, Jürgen; Cummins, Fred (1999). "Learning to forget: Continual prediction with LSTM". 9th International Conference on Artificial Neural Networks: ICANN '99 (në english). Vëll. 1999. fq. 850–855. doi:10.1049/cp:19991218. ISBN 0-85296-721-7.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Schmidhuber, Jürgen (2010). "Formal Theory of Creativity, Fun, and Intrinsic Motivation (1990–2010)". IEEE Transactions on Autonomous Mental Development (në english). 2 (3): 230–247. doi:10.1109/TAMD.2010.2056368.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Schmidhuber, Jürgen (2020). "Generative Adversarial Networks are Special Cases of Artificial Curiosity (1990) and also Closely Related to Predictability Minimization (1991)". Neural Networks (në anglisht). 127: 58–66. arXiv:1906.04493. doi:10.1016/j.neunet.2020.04.008. PMID 32334341.
- ^ Ackley, David H.; Hinton, Geoffrey E.; Sejnowski, Terrence J. (1985-01-01). "A learning algorithm for boltzmann machines". Cognitive Science (në english). 9 (1): 147–169. doi:10.1016/S0364-0213(85)80012-4. ISSN 0364-0213.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Smolensky, Paul (1986). "Chapter 6: Information Processing in Dynamical Systems: Foundations of Harmony Theory" (PDF). përmbledhur nga Rumelhart, David E.; McLelland, James L. (red.). Parallel Distributed Processing: Explorations in the Microstructure of Cognition, Volume 1: Foundations (në english). MIT Press. fq. 194–281. ISBN 0-262-68053-X.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Peter, Dayan; Hinton, Geoffrey E.; Neal, Radford M.; Zemel, Richard S. (1995). "The Helmholtz machine". Neural Computation. 7 (5): 889–904. doi:10.1162/neco.1995.7.5.889. PMID 7584891.
{{cite journal}}
:|hdl-access=
ka nevojë për|hdl=
(Ndihmë!); Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Hinton, Geoffrey E.; Dayan, Peter; Frey, Brendan J.; Neal, Radford (1995-05-26). "The wake-sleep algorithm for unsupervised neural networks". Science (në english). 268 (5214): 1158–1161. Bibcode:1995Sci...268.1158H. doi:10.1126/science.7761831. PMID 7761831.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Sejnowski, Terrence J. (2018). The deep learning revolution (në english). Cambridge, Massachusetts: The MIT Press. ISBN 978-0-262-03803-4.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Qian, Ning; Sejnowski, Terrence J. (1988-08-20). "Predicting the secondary structure of globular proteins using neural network models". Journal of Molecular Biology (në english). 202 (4): 865–884. doi:10.1016/0022-2836(88)90564-5. ISSN 0022-2836. PMID 3172241.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Morgan, Nelson; Bourlard, Hervé; Renals, Steve; Cohen, Michael; Franco, Horacio (1 gusht 1993). "Hybrid neural network/hidden markov model systems for continuous speech recognition". International Journal of Pattern Recognition and Artificial Intelligence (në english). 07 (4): 899–916. doi:10.1142/s0218001493000455. ISSN 0218-0014.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Robinson, T. (1992). "A real-time recurrent error propagation network word recognition system". ICASSP. Icassp'92 (në english): 617–620. ISBN 978-0-7803-0532-8. Arkivuar nga origjinali më 2021-05-09. Marrë më 2017-06-12.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Waibel, A.; Hanazawa, T.; Hinton, G.; Shikano, K.; Lang, K. J. (mars 1989). "Phoneme recognition using time-delay neural networks" (PDF). IEEE Transactions on Acoustics, Speech, and Signal Processing (në english). 37 (3): 328–339. doi:10.1109/29.21701. ISSN 0096-3518. Arkivuar (PDF) nga origjinali më 2021-04-27. Marrë më 2019-09-24.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Baker, J.; Deng, Li; Glass, Jim; Khudanpur, S.; Lee, C.-H.; Morgan, N.; O'Shaughnessy, D. (2009). "Research Developments and Directions in Speech Recognition and Understanding, Part 1". IEEE Signal Processing Magazine (në english). 26 (3): 75–80. Bibcode:2009ISPM...26...75B. doi:10.1109/msp.2009.932166.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Bengio, Y. (1991). "Artificial Neural Networks and their Application to Speech/Sequence Recognition" (në english). McGill University Ph.D. thesis. Arkivuar nga origjinali më 2021-05-09. Marrë më 2017-06-12.
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Deng, L.; Hassanein, K.; Elmasry, M. (1994). "Analysis of correlation structure for a neural predictive model with applications to speech recognition". Neural Networks (në english). 7 (2): 331–339. doi:10.1016/0893-6080(94)90027-2.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Doddington, G.; Przybocki, M.; Martin, A.; Reynolds, D. (2000). "The NIST speaker recognition evaluation ± Overview, methodology, systems, results, perspective". Speech Communication (në english). 31 (2): 225–254. doi:10.1016/S0167-6393(99)00080-1.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Heck, L.; Konig, Y.; Sonmez, M.; Weintraub, M. (2000). "Robustness to Telephone Handset Distortion in Speaker Recognition by Discriminative Feature Design". Speech Communication (në english). 31 (2): 181–192. doi:10.1016/s0167-6393(99)00077-1.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Acoustic Modeling with Deep Neural Networks Using Raw Time Signal for LVCSR (PDF Download Available)". ResearchGate (në english). Arkivuar nga origjinali më 9 maj 2021. Marrë më 14 qershor 2017.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Graves, Alex; Fernández, Santiago; Gomez, Faustino; Schmidhuber, Jürgen (2006). "Connectionist temporal classification: Labelling unsegmented sequence data with recurrent neural networks". Proceedings of the International Conference on Machine Learning, ICML 2006 (në english): 369–376. CiteSeerX 10.1.1.75.6306.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Hinton, Geoffrey E. (1 tetor 2007). "Learning multiple layers of representation". Trends in Cognitive Sciences (në english). 11 (10): 428–434. doi:10.1016/j.tics.2007.09.004. ISSN 1364-6613. PMID 17921042. Arkivuar nga origjinali më 11 tetor 2013. Marrë më 12 qershor 2017.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Hinton, G. E.; Osindero, S.; Teh, Y. W. (2006). "A Fast Learning Algorithm for Deep Belief Nets" (PDF). Neural Computation (në english). 18 (7): 1527–1554. doi:10.1162/neco.2006.18.7.1527. PMID 16764513. Arkivuar (PDF) nga origjinali më 2015-12-23. Marrë më 2011-07-20.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Hinton, Geoffrey E. (tetor 2007). "Learning multiple layers of representation". Trends in Cognitive Sciences (në anglisht). 11 (10): 428–434. doi:10.1016/j.tics.2007.09.004. PMID 17921042.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ Hinton, Geoffrey E.; Osindero, Simon; Teh, Yee-Whye (korrik 2006). "A Fast Learning Algorithm for Deep Belief Nets". Neural Computation (në anglisht). 18 (7): 1527–1554. doi:10.1162/neco.2006.18.7.1527. ISSN 0899-7667. PMID 16764513.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ Hinton, Geoffrey E. (2009-05-31). "Deep belief networks". Scholarpedia (në anglisht). 4 (5): 5947. Bibcode:2009SchpJ...4.5947H. doi:10.4249/scholarpedia.5947. ISSN 1941-6016.
- ^ a b c Hinton, G.; Deng, L.; Yu, D.; Dahl, G.; Mohamed, A.; Jaitly, N.; Senior, A.; Vanhoucke, V.; Nguyen, P.; Sainath, T.; Kingsbury, B. (2012). "Deep Neural Networks for Acoustic Modeling in Speech Recognition: The Shared Views of Four Research Groups". IEEE Signal Processing Magazine (në english). 29 (6): 82–97. Bibcode:2012ISPM...29...82H. doi:10.1109/msp.2012.2205597.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c Deng, L.; Hinton, G.; Kingsbury, B. (maj 2013). "New types of deep neural network learning for speech recognition and related applications: An overview (ICASSP)" (PDF) (në english). Microsoft. Arkivuar (PDF) nga origjinali më 2017-09-26. Marrë më 27 dhjetor 2023.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c Yu, D.; Deng, L. (2014). Automatic Speech Recognition: A Deep Learning Approach (Publisher: Springer) (në english). Springer. ISBN 978-1-4471-5779-3.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Deng receives prestigious IEEE Technical Achievement Award – Microsoft Research". Microsoft Research (në english). 3 dhjetor 2015. Arkivuar nga origjinali më 16 mars 2018. Marrë më 16 mars 2018.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Li, Deng (shtator 2014). "Keynote talk: 'Achievements and Challenges of Deep Learning – From Speech Analysis and Recognition To Language and Multimodal Processing'". Interspeech (në english). Arkivuar nga origjinali më 2017-09-26. Marrë më 2017-06-12.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Yu, D.; Deng, L. (2010). "Roles of Pre-Training and Fine-Tuning in Context-Dependent DBN-HMMs for Real-World Speech Recognition". NIPS Workshop on Deep Learning and Unsupervised Feature Learning (në english). Arkivuar nga origjinali më 2017-10-12. Marrë më 2017-06-14.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Seide, F.; Li, G.; Yu, D. (2011). "Conversational speech transcription using context-dependent deep neural networks". Interspeech 2011 (në english). fq. 437–440. doi:10.21437/Interspeech.2011-169. Arkivuar nga origjinali më 2017-10-12. Marrë më 2017-06-14.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Deng, Li; Li, Jinyu; Huang, Jui-Ting; Yao, Kaisheng; Yu, Dong; Seide, Frank; Seltzer, Mike; Zweig, Geoff; He, Xiaodong (1 maj 2013). "Recent Advances in Deep Learning for Speech Research at Microsoft". Microsoft Research (në english). Arkivuar nga origjinali më 12 tetor 2017. Marrë më 14 qershor 2017.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Oh, K.-S.; Jung, K. (2004). "GPU implementation of neural networks". Pattern Recognition (në english). 37 (6): 1311–1314. Bibcode:2004PatRe..37.1311O. doi:10.1016/j.patcog.2004.01.013.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Chellapilla, Kumar; Puri, Sidd; Simard, Patrice (2006), High performance convolutional neural networks for document processing, arkivuar nga origjinali më 2020-05-18, marrë më 2021-02-14
{{citation}}
: Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Raina, Rajat; Madhavan, Anand; Ng, Andrew Y. (2009-06-14). "Large-scale deep unsupervised learning using graphics processors". Proceedings of the 26th Annual International Conference on Machine Learning. ICML '09 (në english). New York, NY, USA: Association for Computing Machinery. fq. 873–880. doi:10.1145/1553374.1553486. ISBN 978-1-60558-516-1.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Cireşan, Dan Claudiu; Meier, Ueli; Gambardella, Luca Maria; Schmidhuber, Jürgen (21 shtator 2010). "Deep, Big, Simple Neural Nets for Handwritten Digit Recognition". Neural Computation (në english). 22 (12): 3207–3220. arXiv:1003.0358. doi:10.1162/neco_a_00052. ISSN 0899-7667. PMID 20858131.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Ciresan, D. C.; Meier, U.; Masci, J.; Gambardella, L.M.; Schmidhuber, J. (2011). "Flexible, High Performance Convolutional Neural Networks for Image Classification" (PDF). International Joint Conference on Artificial Intelligence (në english). doi:10.5591/978-1-57735-516-8/ijcai11-210. Arkivuar (PDF) nga origjinali më 2014-09-29. Marrë më 2017-06-13.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Ciresan, Dan; Giusti, Alessandro; Gambardella, Luca M.; Schmidhuber, Jürgen (2012). Pereira, F.; Burges, C. J. C.; Bottou, L.; Weinberger, K. Q. (red.). Advances in Neural Information Processing Systems 25 (PDF) (në english). Curran Associates, Inc. fq. 2843–2851. Arkivuar (PDF) nga origjinali më 2017-08-09. Marrë më 2017-06-13.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Ciresan, D.; Giusti, A.; Gambardella, L.M.; Schmidhuber, J. (2013). "Mitosis Detection in Breast Cancer Histology Images with Deep Neural Networks". Medical Image Computing and Computer-Assisted Intervention – MICCAI 2013. Lecture Notes in Computer Science (në english). Vëll. 7908. fq. 411–418. doi:10.1007/978-3-642-40763-5_51. ISBN 978-3-642-38708-1. PMID 24579167.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Ng. "Building High-level Features Using Large Scale Unsupervised Learning".
{{cite arXiv}}
: Kërkohet|arxiv=
(Ndihmë!); Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Simonyan. "Very Deep Convolution Networks for Large Scale Image Recognition".
{{cite arXiv}}
: Kërkohet|arxiv=
(Ndihmë!); Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Szegedy, Christian (2015). "Going deeper with convolutions" (PDF). Cvpr2015 (në english). arXiv:1409.4842.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Vinyals. "Show and Tell: A Neural Image Caption Generator". arXiv:1411.4555.
{{cite arXiv}}
: Mungon ose është bosh parametri|language=
(Ndihmë!). - ^ Fang. "From Captions to Visual Concepts and Back". arXiv:1411.4952.
{{cite arXiv}}
: Mungon ose është bosh parametri|language=
(Ndihmë!). - ^ Kiros. "Unifying Visual-Semantic Embeddings with Multimodal Neural Language Models". arXiv:1411.2539.
{{cite arXiv}}
: Mungon ose është bosh parametri|language=
(Ndihmë!). - ^ Simonyan, Karen; Zisserman, Andrew (2015-04-10), Very Deep Convolutional Networks for Large-Scale Image Recognition, arXiv:1409.1556
{{citation}}
: Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Gatys. "A Neural Algorithm of Artistic Style".
{{cite arXiv}}
: Kërkohet|arxiv=
(Ndihmë!); Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ "GAN 2.0: NVIDIA's Hyperrealistic Face Generator". SyncedReview.com (në english). dhjetor 14, 2018. Marrë më tetor 3, 2019.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Karras. "Progressive Growing of GANs for Improved Quality, Stability, and Variation".
{{cite arXiv}}
: Kërkohet|arxiv=
(Ndihmë!); Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ "Prepare, Don't Panic: Synthetic Media and Deepfakes" (në english). witness.org. Arkivuar nga origjinali më 2 dhjetor 2020. Marrë më 25 nëntor 2020.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Sohl-Dickstein, Jascha; Weiss, Eric; Maheswaranathan, Niru; Ganguli, Surya (2015-06-01). "Deep Unsupervised Learning using Nonequilibrium Thermodynamics" (PDF). Proceedings of the 32nd International Conference on Machine Learning (në anglisht). PMLR. 37: 2256–2265. arXiv:1503.03585.
- ^ a b Sak, Haşim; Senior, Andrew; Rao, Kanishka; Beaufays, Françoise; Schalkwyk, Johan (shtator 2015). "Google voice search: faster and more accurate" (në english). Arkivuar nga origjinali më 2016-03-09. Marrë më 2016-04-09.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Singh, Premjeet; Saha, Goutam; Sahidullah, Md (2021). "Non-linear frequency warping using constant-Q transformation for speech emotion recognition". 2021 International Conference on Computer Communication and Informatics (ICCCI). fq. 1–4. doi:10.1109/ICCCI50826.2021.9402569. ISBN 978-1-72815-875-4.
{{cite book}}
: Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Sak, Hasim; Senior, Andrew; Beaufays, Francoise (2014). "Long Short-Term Memory recurrent neural network architectures for large scale acoustic modeling" (PDF) (në english). Arkivuar nga origjinali (PDF) më 24 prill 2018.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Li. "Constructing Long Short-Term Memory based Deep Recurrent Neural Networks for Large Vocabulary Speech Recognition". arXiv:1410.4281.
{{cite arXiv}}
: Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Zen, Heiga; Sak, Hasim (2015). "Unidirectional Long Short-Term Memory Recurrent Neural Network with Recurrent Output Layer for Low-Latency Speech Synthesis" (PDF). Google.com (në english). ICASSP. fq. 4470–4474. Arkivuar (PDF) nga origjinali më 2021-05-09. Marrë më 2017-06-13.
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "2018 ACM A.M. Turing Award Laureates". awards.acm.org (në anglisht). Marrë më 2024-08-07.
- ^ Silver, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; Driessche, George van den; Schrittwieser, Julian; Antonoglou, Ioannis; Panneershelvam, Veda (janar 2016). "Mastering the game of Go with deep neural networks and tree search". Nature (në english). 529 (7587): 484–489. Bibcode:2016Natur.529..484S. doi:10.1038/nature16961. ISSN 1476-4687. PMID 26819042.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ A Guide to Deep Learning and Neural Networks, arkivuar nga origjinali më 2020-11-02, marrë më 2020-11-16
{{citation}}
: Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ a b Kumar, Nishant; Raubal, Martin (2021). "Applications of deep learning in congestion detection, prediction and alleviation: A survey". Transportation Research Part C: Emerging Technologies (në english). 133: 103432. doi:10.1016/j.trc.2021.103432.
{{cite journal}}
:|hdl-access=
ka nevojë për|hdl=
(Ndihmë!)Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Szegedy, Christian; Toshev, Alexander; Erhan, Dumitru (2013). "Deep neural networks for object detection". Advances in Neural Information Processing Systems (në english): 2553–2561. Arkivuar nga origjinali më 2017-06-29. Marrë më 2017-06-13.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Hof, Robert D. "Is Artificial Intelligence Finally Coming into Its Own?". MIT Technology Review (në english). Arkivuar nga origjinali më 31 mars 2019. Marrë më 10 korrik 2018.
{{cite news}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Gers, Felix A.; Schmidhuber, Jürgen (2001). "LSTM Recurrent Networks Learn Simple Context Free and Context Sensitive Languages". IEEE Transactions on Neural Networks (në english). 12 (6): 1333–1340. doi:10.1109/72.963769. PMID 18249962. Arkivuar nga origjinali më 2020-01-26. Marrë më 2020-02-25.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c Sutskever, L.; Vinyals, O.; Le, Q. (2014). "Sequence to Sequence Learning with Neural Networks" (PDF). Proc. NIPS (në english). arXiv:1409.3215. Bibcode:2014arXiv1409.3215S. Arkivuar (PDF) nga origjinali më 2021-05-09. Marrë më 2017-06-13.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Jozefowicz. "Exploring the Limits of Language Modeling".
{{cite arXiv}}
: Kërkohet|arxiv=
(Ndihmë!); Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Gillick. "Multilingual Language Processing from Bytes".
{{cite arXiv}}
: Kërkohet|arxiv=
(Ndihmë!); Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Mikolov, T.; etj. (2010). "Recurrent neural network based language model" (PDF). Interspeech (në english): 1045–1048. doi:10.21437/Interspeech.2010-343. Arkivuar (PDF) nga origjinali më 2017-05-16. Marrë më 2017-06-13.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Hochreiter, Sepp; Schmidhuber, Jürgen (1 nëntor 1997). "Long Short-Term Memory". Neural Computation (në english). 9 (8): 1735–1780. doi:10.1162/neco.1997.9.8.1735. ISSN 0899-7667. PMID 9377276.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b "Learning Precise Timing with LSTM Recurrent Networks (PDF Download Available)". ResearchGate (në english). Arkivuar nga origjinali më 9 maj 2021. Marrë më 13 qershor 2017.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ LeCun, Y.; etj. (1998). "Gradient-based learning applied to document recognition". Proceedings of the IEEE (në english). 86 (11): 2278–2324. doi:10.1109/5.726791.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Sainath, Tara N.; Mohamed, Abdel-Rahman; Kingsbury, Brian; Ramabhadran, Bhuvana (2013). "Deep convolutional neural networks for LVCSR". 2013 IEEE International Conference on Acoustics, Speech and Signal Processing (në english). fq. 8614–8618. doi:10.1109/icassp.2013.6639347. ISBN 978-1-4799-0356-6.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Bengio, Yoshua; Boulanger-Lewandowski, Nicolas; Pascanu, Razvan (2013). "Advances in optimizing recurrent networks". 2013 IEEE International Conference on Acoustics, Speech and Signal Processing (në english). fq. 8624–8628. CiteSeerX 10.1.1.752.9151. doi:10.1109/icassp.2013.6639349. ISBN 978-1-4799-0356-6.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Dahl, G.; etj. (2013). "Improving DNNs for LVCSR using rectified linear units and dropout" (PDF). ICASSP (në english). Arkivuar (PDF) nga origjinali më 2017-08-12. Marrë më 2017-06-13.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Kumar, Nishant; Martin, Henry; Raubal, Martin (2024). "Enhancing Deep Learning-Based City-Wide Traffic Prediction Pipelines Through Complexity Analysis". Data Science for Transportation (në english). 6 (3): Article 24. doi:10.1007/s42421-024-00109-x.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Data Augmentation – deeplearning.ai | Coursera". Coursera (në english). Arkivuar nga origjinali më 1 dhjetor 2017. Marrë më 30 nëntor 2017.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Hinton, G. E. (2010). "A Practical Guide to Training Restricted Boltzmann Machines". Tech. Rep. UTML TR 2010-003. Arkivuar nga origjinali më 2021-05-09. Marrë më 2017-06-13.
{{cite journal}}
: Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ You, Yang; Buluç, Aydın; Demmel, James (nëntor 2017). "Scaling deep learning on GPU and knights landing clusters". Proceedings of the International Conference for High Performance Computing, Networking, Storage and Analysis on – SC '17 (në english). SC '17, ACM. fq. 1–12. doi:10.1145/3126908.3126912. ISBN 978-1-4503-5114-0. Arkivuar nga origjinali më 29 korrik 2020. Marrë më 5 mars 2018.
{{cite book}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Viebke, André; Memeti, Suejb; Pllana, Sabri; Abraham, Ajith (2019). "CHAOS: a parallelization scheme for training convolutional neural networks on Intel Xeon Phi". The Journal of Supercomputing (në english). 75: 197–227. arXiv:1702.07908. Bibcode:2017arXiv170207908V. doi:10.1007/s11227-017-1994-x.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Research, AI (23 tetor 2015). "Deep Neural Networks for Acoustic Modeling in Speech Recognition". airesearch.com (në english). Arkivuar nga origjinali më 1 shkurt 2016. Marrë më 23 tetor 2015.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "GPUs Continue to Dominate the AI Accelerator Market for Now". InformationWeek (në anglisht). dhjetor 2019. Arkivuar nga origjinali më 10 qershor 2020. Marrë më 11 qershor 2020.
{{cite news}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ Ray, Tiernan (2019). "AI is changing the entire nature of computation". ZDNet (në anglisht). Arkivuar nga origjinali më 25 maj 2020. Marrë më 11 qershor 2020.
{{cite news}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ "AI and Compute". OpenAI (në anglisht). 16 maj 2018. Arkivuar nga origjinali më 17 qershor 2020. Marrë më 11 qershor 2020.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ "HUAWEI Reveals the Future of Mobile AI at IFA 2017 | HUAWEI Latest News | HUAWEI Global". consumer.huawei.com (në english).
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ P, JouppiNorman; YoungCliff; PatilNishant; PattersonDavid; AgrawalGaurav; BajwaRaminder; BatesSarah; BhatiaSuresh; BodenNan; BorchersAl; BoyleRick (2017-06-24). "In-Datacenter Performance Analysis of a Tensor Processing Unit". ACM SIGARCH Computer Architecture News (në anglisht). 45 (2): 1–12. arXiv:1704.04760. doi:10.1145/3140659.3080246.
- ^ Woodie, Alex (2021-11-01). "Cerebras Hits the Accelerator for Deep Learning Workloads". Datanami (në english). Marrë më 2022-08-03.
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Cerebras launches new AI supercomputing processor with 2.6 trillion transistors". VentureBeat (në anglishte amerikane). 2021-04-20. Marrë më 2022-08-03.
- ^ Marega, Guilherme Migliato; Zhao, Yanfei; Avsar, Ahmet; Wang, Zhenyu; Tripati, Mukesh; Radenovic, Aleksandra; Kis, Anras (2020). "Logic-in-memory based on an atomically thin semiconductor". Nature (në english). 587 (2): 72–77. Bibcode:2020Natur.587...72M. doi:10.1038/s41586-020-2861-0. PMC 7116757. PMID 33149289.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c Feldmann, J.; Youngblood, N.; Karpov, M.; etj. (2021). "Parallel convolutional processing using an integrated photonic tensor". Nature (në english). 589 (2): 52–58. arXiv:2002.00281. doi:10.1038/s41586-020-03070-1. PMID 33408373.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Graves, Alex; Eck, Douglas; Beringer, Nicole; Schmidhuber, Jürgen (2003). "Biologically Plausible Speech Recognition with LSTM Neural Nets" (PDF). 1st Intl. Workshop on Biologically Inspired Approaches to Advanced Information Technology, Bio-ADIT 2004, Lausanne, Switzerland (në english). fq. 175–184. Arkivuar (PDF) nga origjinali më 2021-05-09. Marrë më 2016-04-09.
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Garofolo, J.S.; Lamel, L.F.; Fisher, W.M.; Fiscus, J.G.; Pallett, D.S.; Dahlgren, N.L.; Zue, V. (1993). TIMIT Acoustic-Phonetic Continuous Speech Corpus (në english). Linguistic Data Consortium. doi:10.35111/17gk-bn40. ISBN 1-58563-019-5. Marrë më 27 dhjetor 2023.
{{cite book}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Robinson, Tony (30 shtator 1991). "Several Improvements to a Recurrent Error Propagation Network Phone Recognition System". Cambridge University Engineering Department Technical Report (në english). CUED/F-INFENG/TR82. doi:10.13140/RG.2.2.15418.90567.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Abdel-Hamid, O.; etj. (2014). "Convolutional Neural Networks for Speech Recognition". IEEE/ACM Transactions on Audio, Speech, and Language Processing (në english). 22 (10): 1533–1545. doi:10.1109/taslp.2014.2339736. Arkivuar nga origjinali më 2020-09-22. Marrë më 2018-04-20.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Deng, L.; Platt, J. (2014). "Ensemble Deep Learning for Speech Recognition". Proc. Interspeech (në english): 1915–1919. doi:10.21437/Interspeech.2014-433.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Tóth, Laszló (2015). "Phone Recognition with Hierarchical Convolutional Deep Maxout Networks" (PDF). EURASIP Journal on Audio, Speech, and Music Processing (në english). 2015. doi:10.1186/s13636-015-0068-3. Arkivuar (PDF) nga origjinali më 2020-09-24. Marrë më 2019-04-01.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges". yann.lecun.com (në english). Arkivuar nga origjinali më 2014-01-13. Marrë më 2014-01-28.
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Cireşan, Dan; Meier, Ueli; Masci, Jonathan; Schmidhuber, Jürgen (gusht 2012). "Multi-column deep neural network for traffic sign classification". Neural Networks. Selected Papers from IJCNN 2011 (në english). 32: 333–338. CiteSeerX 10.1.1.226.8219. doi:10.1016/j.neunet.2012.02.023. PMID 22386783.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ A bot will complete this citation soon. Click here to jump the queue arXiv:[2].
- ^ a b c G. W. Smith; Frederic Fol Leymarie (10 prill 2017). "The Machine as Artist: An Introduction". Arts (në english). 6 (4): 5. doi:10.3390/arts6020005.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c Blaise Agüera y Arcas (29 shtator 2017). "Art in the Age of Machine Intelligence". Arts (në english). 6 (4): 18. doi:10.3390/arts6040018.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Socher, Richard; Manning, Christopher. "Deep Learning for NLP" (PDF) (në english). Arkivuar (PDF) nga origjinali më 6 korrik 2014. Marrë më 26 tetor 2014.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Socher, Richard; Bauer, John; Manning, Christopher; Ng, Andrew (2013). "Parsing With Compositional Vector Grammars" (PDF). Proceedings of the ACL 2013 Conference (në english). Arkivuar (PDF) nga origjinali më 2014-11-27. Marrë më 2014-09-03.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Socher, R.; Perelygin, A.; Wu, J.; Chuang, J.; Manning, C.D.; Ng, A.; Potts, C. (tetor 2013). "Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank" (PDF). Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing (në english). Association for Computational Linguistics. Arkivuar (PDF) nga origjinali më 28 dhjetor 2016. Marrë më 21 dhjetor 2023.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Shen, Yelong; He, Xiaodong; Gao, Jianfeng; Deng, Li; Mesnil, Gregoire (1 nëntor 2014). "A Latent Semantic Model with Convolutional-Pooling Structure for Information Retrieval". Microsoft Research (në english). Arkivuar nga origjinali më 27 tetor 2017. Marrë më 14 qershor 2017.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Huang, Po-Sen; He, Xiaodong; Gao, Jianfeng; Deng, Li; Acero, Alex; Heck, Larry (1 tetor 2013). "Learning Deep Structured Semantic Models for Web Search using Clickthrough Data". Microsoft Research (në english). Arkivuar nga origjinali më 27 tetor 2017. Marrë më 14 qershor 2017.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Mesnil, G.; Dauphin, Y.; Yao, K.; Bengio, Y.; Deng, L.; Hakkani-Tur, D.; He, X.; Heck, L.; Tur, G.; Yu, D.; Zweig, G. (2015). "Using recurrent neural networks for slot filling in spoken language understanding". IEEE Transactions on Audio, Speech, and Language Processing (në english). 23 (3): 530–539. doi:10.1109/taslp.2014.2383614.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c Gao, Jianfeng; He, Xiaodong; Yih, Scott Wen-tau; Deng, Li (1 qershor 2014). "Learning Continuous Phrase Representations for Translation Modeling". Microsoft Research (në english). Arkivuar nga origjinali më 27 tetor 2017. Marrë më 14 qershor 2017.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Brocardo, Marcelo Luiz; Traore, Issa; Woungang, Isaac; Obaidat, Mohammad S. (2017). "Authorship verification using deep belief network systems". International Journal of Communication Systems (në english). 30 (12): e3259. doi:10.1002/dac.3259.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Kariampuzha, William; Alyea, Gioconda; Qu, Sue; Sanjak, Jaleal; Mathé, Ewy; Sid, Eric; Chatelaine, Haley; Yadaw, Arjun; Xu, Yanji; Zhu, Qian (2023). "Precision information extraction for rare disease epidemiology at scale". Journal of Translational Medicine (në anglisht). 21 (1): 157. doi:10.1186/s12967-023-04011-y. PMC 9972634. PMID 36855134.
- ^ "Deep Learning for Natural Language Processing: Theory and Practice (CIKM2014 Tutorial) – Microsoft Research". Microsoft Research (në english). Arkivuar nga origjinali më 13 mars 2017. Marrë më 14 qershor 2017.
{{cite news}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b c Schuster, Mike; Johnson, Melvin; Thorat, Nikhil (22 nëntor 2016). "Zero-Shot Translation with Google's Multilingual Neural Machine Translation System". Google Research Blog (në english). Arkivuar nga origjinali më 10 korrik 2017. Marrë më 23 mars 2017.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ a b Boitet, Christian; Blanchon, Hervé; Seligman, Mark; Bellynck, Valérie (2010). "MT on and for the Web" (PDF) (në english). Arkivuar nga origjinali (PDF) më 29 mars 2017. Marrë më 1 dhjetor 2016.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Arrowsmith, J; Miller, P (2013). "Trial watch: Phase II and phase III attrition rates 2011–2012". Nature Reviews Drug Discovery (në english). 12 (8): 569. doi:10.1038/nrd4090. PMID 23903212.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Verbist, B; Klambauer, G; Vervoort, L; Talloen, W; The Qstar, Consortium; Shkedy, Z; Thas, O; Bender, A; Göhlmann, H. W.; Hochreiter, S (2015). "Using transcriptomics to guide lead optimization in drug discovery projects: Lessons learned from the QSTAR project". Drug Discovery Today (në english). 20 (5): 505–513. doi:10.1016/j.drudis.2014.12.014. PMID 25582842.
{{cite journal}}
:|hdl-access=
ka nevojë për|hdl=
(Ndihmë!)Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Merck Molecular Activity Challenge". kaggle.com (në english). Arkivuar nga origjinali më 2020-07-16. Marrë më 2020-07-16.
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Multi-task Neural Networks for QSAR Predictions | Data Science Association". www.datascienceassn.org (në english). Arkivuar nga origjinali më 30 prill 2017. Marrë më 14 qershor 2017.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "NCATS Announces Tox21 Data Challenge Winners" (në english). Arkivuar nga origjinali më 2015-09-08. Marrë më 2015-03-05.
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "NCATS Announces Tox21 Data Challenge Winners" (në english). Arkivuar nga origjinali më 28 shkurt 2015. Marrë më 5 mars 2015.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ A bot will complete this citation soon. Click here to jump the queue arXiv:[3].
- ^ a b "Toronto startup has a faster way to discover effective medicines". The Globe and Mail (në english). Arkivuar nga origjinali më 20 tetor 2015. Marrë më 9 nëntor 2015.
{{cite news}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Startup Harnesses Supercomputers to Seek Cures". KQED Future of You (në english). 27 maj 2015. Arkivuar nga origjinali më 24 dhjetor 2015. Marrë më 9 nëntor 2015.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Gilmer. "Neural Message Passing for Quantum Chemistry".
{{cite arXiv}}
: Kërkohet|arxiv=
(Ndihmë!); Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ Zhavoronkov, Alex (2019). "Deep learning enables rapid identification of potent DDR1 kinase inhibitors". Nature Biotechnology (në english). 37 (9): 1038–1040. doi:10.1038/s41587-019-0224-x. PMID 31477924.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ van den Oord, Aaron; Dieleman, Sander; Schrauwen, Benjamin (2013). Burges, C. J. C.; Bottou, L.; Welling, M.; Ghahramani, Z.; Weinberger, K. Q. (red.). Advances in Neural Information Processing Systems 26 (PDF) (në english). Curran Associates, Inc. fq. 2643–2651. Arkivuar (PDF) nga origjinali më 2017-05-16. Marrë më 2017-06-14.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Feng, X.Y.; Zhang, H.; Ren, Y.J.; Shang, P.H.; Zhu, Y.; Liang, Y.C.; Guan, R.C.; Xu, D. (2019). "The Deep Learning–Based Recommender System "Pubmender" for Choosing a Biomedical Publication Venue: Development and Validation Study". Journal of Medical Internet Research (në english). 21 (5): e12957. doi:10.2196/12957. PMC 6555124. PMID 31127715.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Elkahky, Ali Mamdouh; Song, Yang; He, Xiaodong (1 maj 2015). "A Multi-View Deep Learning Approach for Cross Domain User Modeling in Recommendation Systems". Microsoft Research (në english). Arkivuar nga origjinali më 25 janar 2018. Marrë më 14 qershor 2017.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Chicco, Davide; Sadowski, Peter; Baldi, Pierre (1 janar 2014). "Deep autoencoder neural networks for gene ontology annotation predictions". Proceedings of the 5th ACM Conference on Bioinformatics, Computational Biology, and Health Informatics (në english). ACM. fq. 533–540. doi:10.1145/2649387.2649442. hdl:11311/964622. ISBN 978-1-4503-2894-4. Arkivuar nga origjinali më 9 maj 2021. Marrë më 23 nëntor 2015.
{{cite book}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Sathyanarayana, Aarti (1 janar 2016). "Sleep Quality Prediction From Wearable Data Using Deep Learning". JMIR mHealth and uHealth (në english). 4 (4): e125. doi:10.2196/mhealth.6562. PMC 5116102. PMID 27815231.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Choi, Edward; Schuetz, Andy; Stewart, Walter F.; Sun, Jimeng (13 gusht 2016). "Using recurrent neural network models for early detection of heart failure onset". Journal of the American Medical Informatics Association (në english). 24 (2): 361–370. doi:10.1093/jamia/ocw112. ISSN 1067-5027. PMC 5391725. PMID 27521897.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "DeepMind's protein-folding AI has solved a 50-year-old grand challenge of biology". MIT Technology Review (në anglisht). Marrë më 2024-05-10.
- ^ Shead, Sam (2020-11-30). "DeepMind solves 50-year-old 'grand challenge' with protein folding A.I." CNBC (në anglisht). Marrë më 2024-05-10.
- ^ a b Shalev, Y.; Painsky, A.; Ben-Gal, I. (2022). "Neural Joint Entropy Estimation" (PDF). IEEE Transactions on Neural Networks and Learning Systems (në anglisht). PP (4): 5488–5500. arXiv:2012.11197. doi:10.1109/TNNLS.2022.3204919. PMID 36155469.
- ^ Litjens, Geert; Kooi, Thijs; Bejnordi, Babak Ehteshami; Setio, Arnaud Arindra Adiyoso; Ciompi, Francesco; Ghafoorian, Mohsen; van der Laak, Jeroen A.W.M.; van Ginneken, Bram; Sánchez, Clara I. (dhjetor 2017). "A survey on deep learning in medical image analysis". Medical Image Analysis (në english). 42: 60–88. arXiv:1702.05747. Bibcode:2017arXiv170205747L. doi:10.1016/j.media.2017.07.005. PMID 28778026.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Forslid, Gustav; Wieslander, Hakan; Bengtsson, Ewert; Wahlby, Carolina; Hirsch, Jan-Michael; Stark, Christina Runow; Sadanandan, Sajith Kecheril (2017). "Deep Convolutional Neural Networks for Detecting Cellular Changes Due to Malignancy". 2017 IEEE International Conference on Computer Vision Workshops (ICCVW) (në english). fq. 82–89. doi:10.1109/ICCVW.2017.18. ISBN 978-1-5386-1034-3. Arkivuar nga origjinali më 2021-05-09. Marrë më 2019-11-12.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Dong, Xin; Zhou, Yizhao; Wang, Lantian; Peng, Jingfeng; Lou, Yanbo; Fan, Yiqun (2020). "Liver Cancer Detection Using Hybridized Fully Convolutional Neural Network Based on Deep Learning Framework". IEEE Access (në english). 8: 129889–129898. Bibcode:2020IEEEA...8l9889D. doi:10.1109/ACCESS.2020.3006362. ISSN 2169-3536.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Lyakhov, Pavel Alekseevich; Lyakhova, Ulyana Alekseevna; Nagornov, Nikolay Nikolaevich (2022-04-03). "System for the Recognizing of Pigmented Skin Lesions with Fusion and Analysis of Heterogeneous Data Based on a Multimodal Neural Network". Cancers (në anglisht). 14 (7): 1819. doi:10.3390/cancers14071819. ISSN 2072-6694. PMC 8997449. PMID 35406591.
- ^ De, Shaunak; Maity, Abhishek; Goel, Vritti; Shitole, Sanjay; Bhattacharya, Avik (2017). "Predicting the popularity of instagram posts for a lifestyle magazine using deep learning". 2017 2nd International Conference on Communication Systems, Computing and IT Applications (CSCITA) (në english). fq. 174–177. doi:10.1109/CSCITA.2017.8066548. ISBN 978-1-5090-4381-1.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Colorizing and Restoring Old Images with Deep Learning". FloydHub Blog (në anglisht). 13 nëntor 2018. Arkivuar nga origjinali më 11 tetor 2019. Marrë më 11 tetor 2019.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ Kleanthous, Christos; Chatzis, Sotirios (2020). "Gated Mixture Variational Autoencoders for Value Added Tax audit case selection". Knowledge-Based Systems (në english). 188: 105048. doi:10.1016/j.knosys.2019.105048.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Czech, Tomasz (28 qershor 2018). "Deep learning: the next frontier for money laundering detection". Global Banking and Finance Review (në english). Arkivuar nga origjinali më 2018-11-16. Marrë më 2018-07-15.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Nuñez, Michael (2023-11-29). "Google DeepMind's materials AI has already discovered 2.2 million new crystals". VentureBeat (në anglishte amerikane). Marrë më 2023-12-19.
- ^ Merchant, Amil; Batzner, Simon; Schoenholz, Samuel S.; Aykol, Muratahan; Cheon, Gowoon; Cubuk, Ekin Dogus (dhjetor 2023). "Scaling deep learning for materials discovery". Nature (në anglisht). 624 (7990): 80–85. Bibcode:2023Natur.624...80M. doi:10.1038/s41586-023-06735-9. ISSN 1476-4687. PMC 10700131. PMID 38030720.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ Peplow, Mark (2023-11-29). "Google AI and robots join forces to build new materials". Nature (në anglisht). doi:10.1038/d41586-023-03745-5. PMID 38030771.
- ^ a b c "Army researchers develop new algorithms to train robots". EurekAlert! (në english). Arkivuar nga origjinali më 28 gusht 2018. Marrë më 29 gusht 2018.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Raissi, M.; Perdikaris, P.; Karniadakis, G. E. (2019-02-01). "Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations". Journal of Computational Physics (në anglisht). 378: 686–707. Bibcode:2019JCoPh.378..686R. doi:10.1016/j.jcp.2018.10.045. ISSN 0021-9991. OSTI 1595805.
- ^ Mao, Zhiping; Jagtap, Ameya D.; Karniadakis, George Em (2020-03-01). "Physics-informed neural networks for high-speed flows". Computer Methods in Applied Mechanics and Engineering (në anglisht). 360: 112789. Bibcode:2020CMAME.360k2789M. doi:10.1016/j.cma.2019.112789. ISSN 0045-7825.
- ^ Raissi, Maziar; Yazdani, Alireza; Karniadakis, George Em (2020-02-28). "Hidden fluid mechanics: Learning velocity and pressure fields from flow visualizations". Science (në english). 367 (6481): 1026–1030. Bibcode:2020Sci...367.1026R. doi:10.1126/science.aaw4741. PMC 7219083. PMID 32001523.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Han, J.; Jentzen, A.; E, W. (2018). "Solving high-dimensional partial differential equations using deep learning". Proceedings of the National Academy of Sciences (në english). 115 (34): 8505–8510. arXiv:1707.02568. Bibcode:2018PNAS..115.8505H. doi:10.1073/pnas.1718942115. PMC 6112690. PMID 30082389.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Oktem, Figen S.; Kar, Oğuzhan Fatih; Bezek, Can Deniz; Kamalabadi, Farzad (2021). "High-Resolution Multi-Spectral Imaging With Diffractive Lenses and Learned Reconstruction". IEEE Transactions on Computational Imaging (në english). 7: 489–504. arXiv:2008.11625. doi:10.1109/TCI.2021.3075349. ISSN 2333-9403.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Bernhardt, Melanie; Vishnevskiy, Valery; Rau, Richard; Goksel, Orcun (dhjetor 2020). "Training Variational Networks With Multidomain Simulations: Speed-of-Sound Image Reconstruction". IEEE Transactions on Ultrasonics, Ferroelectrics, and Frequency Control (në english). 67 (12): 2584–2594. arXiv:2006.14395. doi:10.1109/TUFFC.2020.3010186. ISSN 1525-8955. PMID 32746211.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Lam, Remi; Sanchez-Gonzalez, Alvaro; Willson, Matthew; Wirnsberger, Peter; Fortunato, Meire; Alet, Ferran; Ravuri, Suman; Ewalds, Timo; Eaton-Rosen, Zach; Hu, Weihua; Merose, Alexander; Hoyer, Stephan; Holland, George; Vinyals, Oriol; Stott, Jacklynn (2023-12-22). "Learning skillful medium-range global weather forecasting". Science (në anglisht). 382 (6677): 1416–1421. arXiv:2212.12794. Bibcode:2023Sci...382.1416L. doi:10.1126/science.adi2336. ISSN 0036-8075. PMID 37962497.
- ^ Sivakumar, Ramakrishnan (2023-11-27). "GraphCast: A breakthrough in Weather Forecasting". Medium (në anglisht). Marrë më 2024-05-19.
- ^ Galkin, F.; Mamoshina, P.; Kochetov, K.; Sidorenko, D.; Zhavoronkov, A. (2020). "DeepMAge: A Methylation Aging Clock Developed with Deep Learning". Aging and Disease (në english). doi:10.14336/AD.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Utgoff, P. E.; Stracuzzi, D. J. (2002). "Many-layered learning". Neural Computation (në english). 14 (10): 2497–2529. doi:10.1162/08997660260293319. PMID 12396572.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Elman, Jeffrey L. (1998). Rethinking Innateness: A Connectionist Perspective on Development (në english). MIT Press. ISBN 978-0-262-55030-7.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Shrager, J.; Johnson, MH (1996). "Dynamic plasticity influences the emergence of function in a simple cortical array". Neural Networks (në english). 9 (7): 1119–1129. doi:10.1016/0893-6080(96)00033-0. PMID 12662587.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Quartz, SR; Sejnowski, TJ (1997). "The neural basis of cognitive development: A constructivist manifesto". Behavioral and Brain Sciences (në english). 20 (4): 537–556. CiteSeerX 10.1.1.41.7854. doi:10.1017/s0140525x97001581. PMID 10097006.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Mazzoni, P.; Andersen, R. A.; Jordan, M. I. (15 maj 1991). "A more biologically plausible learning rule for neural networks". Proceedings of the National Academy of Sciences (në english). 88 (10): 4433–4437. Bibcode:1991PNAS...88.4433M. doi:10.1073/pnas.88.10.4433. ISSN 0027-8424. PMC 51674. PMID 1903542.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ O'Reilly, Randall C. (1 korrik 1996). "Biologically Plausible Error-Driven Learning Using Local Activation Differences: The Generalized Recirculation Algorithm". Neural Computation (në english). 8 (5): 895–938. doi:10.1162/neco.1996.8.5.895. ISSN 0899-7667.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Testolin, Alberto; Zorzi, Marco (2016). "Probabilistic Models and Generative Neural Networks: Towards an Unified Framework for Modeling Normal and Impaired Neurocognitive Functions". Frontiers in Computational Neuroscience (në english). 10: 73. doi:10.3389/fncom.2016.00073. ISSN 1662-5188. PMC 4943066. PMID 27468262.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Testolin, Alberto; Stoianov, Ivilin; Zorzi, Marco (shtator 2017). "Letter perception emerges from unsupervised deep learning and recycling of natural image features". Nature Human Behaviour (në english). 1 (9): 657–664. doi:10.1038/s41562-017-0186-2. ISSN 2397-3374. PMID 31024135.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Buesing, Lars; Bill, Johannes; Nessler, Bernhard; Maass, Wolfgang (3 nëntor 2011). "Neural Dynamics as Sampling: A Model for Stochastic Computation in Recurrent Networks of Spiking Neurons". PLOS Computational Biology (në english). 7 (11): e1002211. Bibcode:2011PLSCB...7E2211B. doi:10.1371/journal.pcbi.1002211. ISSN 1553-7358. PMC 3207943. PMID 22096452.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Cash, S.; Yuste, R. (shkurt 1999). "Linear summation of excitatory inputs by CA1 pyramidal neurons". Neuron (në english). 22 (2): 383–394. doi:10.1016/s0896-6273(00)81098-3. ISSN 0896-6273. PMID 10069343.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Olshausen, B; Field, D (1 gusht 2004). "Sparse coding of sensory inputs". Current Opinion in Neurobiology (në english). 14 (4): 481–487. doi:10.1016/j.conb.2004.07.007. ISSN 0959-4388. PMID 15321069.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Yamins, Daniel L K; DiCarlo, James J (mars 2016). "Using goal-driven deep learning models to understand sensory cortex". Nature Neuroscience (në english). 19 (3): 356–365. doi:10.1038/nn.4244. ISSN 1546-1726. PMID 26906502.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Zorzi, Marco; Testolin, Alberto (19 shkurt 2018). "An emergentist perspective on the origin of number sense". Phil. Trans. R. Soc. B (në english). 373 (1740): 20170043. doi:10.1098/rstb.2017.0043. ISSN 0962-8436. PMC 5784047. PMID 29292348.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Güçlü, Umut; van Gerven, Marcel A. J. (8 korrik 2015). "Deep Neural Networks Reveal a Gradient in the Complexity of Neural Representations across the Ventral Stream". Journal of Neuroscience (në english). 35 (27): 10005–10014. arXiv:1411.6422. doi:10.1523/jneurosci.5023-14.2015. PMC 6605414. PMID 26157000.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Gibney, Elizabeth (2016). "Google AI algorithm masters ancient game of Go". Nature (në english). 529 (7587): 445–446. Bibcode:2016Natur.529..445G. doi:10.1038/529445a. PMID 26819021.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Silver, David; Huang, Aja; Maddison, Chris J.; Guez, Arthur; Sifre, Laurent; Driessche, George van den; Schrittwieser, Julian; Antonoglou, Ioannis; Panneershelvam, Veda; Lanctot, Marc; Dieleman, Sander; Grewe, Dominik; Nham, John; Kalchbrenner, Nal; Sutskever, Ilya (28 janar 2016). "Mastering the game of Go with deep neural networks and tree search". Nature. 529 (7587): 484–489. Bibcode:2016Natur.529..484S. doi:10.1038/nature16961. ISSN 0028-0836. PMID 26819042.
{{cite journal}}
: Mungon ose është bosh parametri|language=
(Ndihmë!)Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ "A Google DeepMind Algorithm Uses Deep Learning and More to Master the Game of Go | MIT Technology Review". MIT Technology Review (në english). Arkivuar nga origjinali më 1 shkurt 2016. Marrë më 30 janar 2016.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Metz, Cade (6 nëntor 2017). "A.I. Researchers Leave Elon Musk Lab to Begin Robotics Start-Up". The New York Times (në english). Arkivuar nga origjinali më 7 korrik 2019. Marrë më 5 korrik 2019.
{{cite news}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Bradley Knox, W.; Stone, Peter (2008). "TAMER: Training an Agent Manually via Evaluative Reinforcement". 2008 7th IEEE International Conference on Development and Learning (në english). fq. 292–297. doi:10.1109/devlrn.2008.4640845. ISBN 978-1-4244-2661-4.
{{cite book}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Talk to the Algorithms: AI Becomes a Faster Learner". governmentciomedia.com (në english). 16 maj 2018. Arkivuar nga origjinali më 28 gusht 2018. Marrë më 29 gusht 2018.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Marcus, Gary (14 janar 2018). "In defense of skepticism about deep learning". Gary Marcus (në english). Arkivuar nga origjinali më 12 tetor 2018. Marrë më 11 tetor 2018.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Knight, Will (14 mars 2017). "DARPA is funding projects that will try to open up AI's black boxes". MIT Technology Review (në english). Arkivuar nga origjinali më 4 nëntor 2019. Marrë më 2 nëntor 2017.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Alex Hern (18 qershor 2015). "Yes, androids do dream of electric sheep". The Guardian (në english). Arkivuar nga origjinali më 19 qershor 2015. Marrë më 20 qershor 2015.
{{cite news}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Szegedy. "Intriguing properties of neural networks".
{{cite arXiv}}
: Kërkohet|arxiv=
(Ndihmë!); Mungon ose është bosh parametri|language=
(Ndihmë!) - ^ a b Goertzel, Ben (2015). "Are there Deep Reasons Underlying the Pathologies of Today's Deep Learning Algorithms?" (PDF) (në english). Arkivuar (PDF) nga origjinali më 2015-05-13. Marrë më 2015-05-10.
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Zhu, S.C.; Mumford, D. (2006). "A stochastic grammar of images". Found. Trends Comput. Graph. Vis. (në english). 2 (4): 259–362. CiteSeerX 10.1.1.681.2190. doi:10.1561/0600000018.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Eisner, Jason. "Deep Learning of Recursive Structure: Grammar Induction" (në english). Arkivuar nga origjinali më 2017-12-30. Marrë më 2015-05-10.
{{cite web}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "Hackers Have Already Started to Weaponize Artificial Intelligence". Gizmodo (në english). 11 shtator 2017. Arkivuar nga origjinali më 11 tetor 2019. Marrë më 11 tetor 2019.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ "How hackers can force AI to make dumb mistakes". The Daily Dot (në anglisht). 18 qershor 2018. Arkivuar nga origjinali më 11 tetor 2019. Marrë më 11 tetor 2019.
{{cite web}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) - ^ a b c d e "AI Is Easy to Fool—Why That Needs to Change". Singularity Hub (në english). 10 tetor 2017. Arkivuar nga origjinali më 11 tetor 2017. Marrë më 11 tetor 2017.
{{cite news}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja) Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Gibney, Elizabeth (2017). "The scientist who spots fake videos". Nature (në english). doi:10.1038/nature.2017.22784. Arkivuar nga origjinali më 2017-10-10. Marrë më 2017-10-11.
{{cite journal}}
: Mirëmbajtja CS1: Gjuhë e panjohur (lidhja) - ^ Tubaro, Paola (2020). "Whose intelligence is artificial intelligence?". Global Dialogue (në anglisht): 38–39.
- ^ a b Mühlhoff, Rainer (6 nëntor 2019). "Human-aided artificial intelligence: Or, how to run large computations in human brains? Toward a media sociology of machine learning". New Media & Society (në anglisht). 22 (10): 1868–1884. doi:10.1177/1461444819885334. ISSN 1461-4448.
{{cite journal}}
: Mirëmbajtja CS1: Datë e përkthyer automatikisht (lidhja)
Leximi i mëtejshëm
Redakto- Bishop, Christopher M.;Bishop, Hugh (2024). Deep learning: foundations and conepts. Springer. ISBN 978-3-031-45467-7.
- Prince, Simon J. D.(2023). Understanding deep learning. The MIT Press. ISBN 978-0-262-04864-4.
- Goodfellow, Ian; Bengio, Youshua; Courville, Aaron (2016). Deep Learning. MIT Press. ISBN 978-0-262-03561-3.Archived from original on 2016-04-16. Retrived 2021-05-09, introductory textbook.