"Machine learning" - kurs 30 000 rubel. från MSU, träning 3 veckor. (1 månad), Datum: 2 december 2023.
Miscellanea / / December 06, 2023
Syftet med programmet – introducera eleverna till grunderna för maskininlärning.
Utbildningens varaktighet – 72 timmar (30 timmars klassrumslektioner med lärare, 42 timmars självständig studie av material).
Studieform – heltid, deltid, kvällstid.
Klassformat - på heltid, för deltagare från andra städer, om det är omöjligt att delta personligen, kommer du att kunna ansluta till lektionen via videokonferens.
Kostnad för utbildning - 30 000 rubel.
Start av klasser - hösten 2023.
Utbildningsavtal tecknas med privatpersoner och juridiska personer.
Registrering för kurser görs via e-post [email protected], med hjälp av registreringsformuläret på webbplatsen.
Du kan kontakta kursadministratören, Anton Martyanov, för att registrera dig eller med frågor via WhatsApp eller Telegram: +79264827721.
Doktor i tekniska vetenskaper Position: Professor vid den högre skolan för management och innovation vid M.V. Lomonosov Moscow State University
Sektion 1. Introduktion. Exempel på uppgifter. Logiska metoder: beslutsträd och beslutsskogar.
Logiska metoder: klassificering av objekt baserat på enkla regler. Tolkning och genomförande. Kombination till en komposition. Avgörande träd. Slumpmässig skog.
Sektion 2. Metriska klassificeringsmetoder. Linjära metoder, stokastisk gradient.
Metriska metoder. Klassificering baserad på likhet. Avstånd mellan objekt. Metrik. Metoden k-närmaste grannar. Generalisering till regressionsproblem med kärnutjämning. Linjära modeller. Skalbarhet. Tillämpbarhet på big data Stokastisk gradientmetod. Tillämpbarhet för inställning av linjära klassificerare. Begreppet regularisering. Funktioner av att arbeta med linjära metoder. Klassificeringskvalitetsmått.
Avsnitt 3. Stöd Vector Machine (SVM). Logistisk tillbakagång. Klassificeringskvalitetsmått.
Linjära modeller. Skalbarhet. Tillämpbarhet på big data Stokastisk gradientmetod. Tillämpbarhet för inställning av linjära klassificerare. Begreppet regularisering. Funktioner av att arbeta med linjära metoder.
Avsnitt 4. Linjär regression. Dimensionalitetsreduktion, principiell komponentmetod.
Linjära modeller för regression. Deras samband med den singulära nedbrytningen av matrisen "objekt-funktioner". Minska antalet skyltar. Tillvägagångssätt för val av funktioner. Huvudkomponentmetoden. Metoder för dimensionsminskning.
Avsnitt 5. Sammansättningar av algoritmer, gradientförstärkning. Neurala nätverk.
Kombinera modeller till en komposition. Ömsesidig korrigering av modellfel. Grundläggande begrepp och problemformuleringar relaterade till kompositioner. Gradientförstärkning.
Neurala nätverk. Sök efter icke-linjära delande ytor. Flerskiktiga neurala nätverk och deras inställning med hjälp av backpropagation-metoden. Djupa neurala nätverk: deras arkitekturer och funktioner.
Avsnitt 6. Klustring och visualisering.
Problem med oövervakat lärande. Hitta struktur i data. Klustringsproblemet är uppgiften att hitta grupper av liknande objekt. Visualiseringsuppgiften är uppgiften att kartlägga objekt i två- eller tredimensionellt rum.
Avsnitt 7. Tillämpade dataanalysproblem: formuleringar och lösningsmetoder.
Partiellt lärande som ett problem mellan övervakat lärande och klustring. Ett samplingsproblem där värdet på målvariabeln endast är känt för vissa objekt. Skillnaden mellan det partiella inlärningsproblemet och de tidigare diskuterade formuleringarna. Tillvägagångssätt till lösning.
Analys av problem från tillämpade områden: poängsättning i banker, försäkringar, emissionsproblem, problem med mönsterigenkänning.
Adress
119991, Moskva, st. Leninskie Gory, 1, byggnad. 51, 5:e våningen, rum 544 (dekanus)
universitet