4.6: Підтеми та дослідження
- Page ID
- 72410
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)
Підтеми
Ось усі підтеми в розділі «Навчання», зібрані в одному місці для зручного перегляду. Вони можуть бути необов'язковими для певного курсу, залежно від специфікацій інструктора, що читати:
- Детальна біологія навчання - більш поглиблена обробка постсинаптичних сигнальних каскадів, які опосередковують LTP і LTD, описані в контексті моделі синаптичної пластичності Urakubo, Honda, Froemke, & Kuroda (2008).
- Hebbian Learning - широке лікування обчислювальних властивостей навчання Hebbian - починається з простого ручного моделювання навчання Hebbian, показуючи, як і чому він фіксує закономірності спільного виникнення.
- STDP - докладніше про пластичність, залежну від часу спайка
- Зворотне поширення - історія та математичне виведення функцій навчання, керованих помилками - настійно рекомендується отримати більше розуміння обчислювальної природи навчання, керованого помилками (починається з деяких важливих концептуальних моментів, перш ніж потрапити в математику).
- Коливальна функція навчання - Норман та ін. Правило навчання, засноване на швидко мінливій синаптичній пластичності в поєднанні з коливаннями в інгібуючій силі - виробляє цікавий гібрид помилкового та самоорганізованого навчання, і математично еквівалентно функції навчання CAL.
- Деталі реалізації — різні деталі реалізації про те, як обчислюються усереднені за часом активації тощо.
- Leabra Подробиці — описує, як поточна версія Leabra на основі XCAL відрізняється від оригінальної з CECNTubritory (O'Reilly & Munakata, 2000).
- Повний набір рівнянь Лібра на сторінці, що виникає: Grey.Colorado.edu/Emergent/index.php/Leabra #Leabra_Algorithm_Equations
Розвідки
Ось усі дослідження, висвітлені в основній частині розділу «Навчання»:
- Самоорганізація (self_org.proj) — Самоорганізоване навчання за допомогою BCM-подібної динаміки XCAL (Питання 4.1-4.2).
- Pattern Associator (pat_assoc.proj) — Базове двошарове навчання мережі простих завдань відображення введення/виведення з Hebbian і Error-керованих механізмами (Питання 4.3-4.6).
- Помилка Driven Hidden (err_driven_hidden.proj) — Повне навчання на основі помилок із прихованим шаром, може вирішити будь-яке відображення вихідних даних (Питання 4.7).
- Сімейні дерева (family_trees.proj) — Навчання в глибокій (багатошаровий) мережі, переформування внутрішніх уявлень для кодування реляційної подібності (Питання 4.8-4.9).