Skip to main content
LibreTexts - Ukrayinska

10.6: Динамічне оновлення активної пам'яті PFC - модель SIR

  • Page ID
    72584
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    Побачивши в моделями Stroop і A-not-B, як стійка активність PFC може впливати на поведінку через зсув зверху вниз, ми тепер перейдемо до більш складних аспектів функції PFC, що включають динамічне стрибування уявлень PFC базальними гангліями, і здатність швидко оновлюватися і надійно підтримувати інформація. В якості першого введення в цю функціональність, захоплену моделлю PBWM, ми використовуємо просте завдання SIR (Store, Ignore, Recall). Ось приблизна послідовність випробувань в цьому завданні:

    • S - A - це означає, що мережа повинна зберігати стимул A для подальшого відкликання - мережа відповідає A.
    • I - C — ігнорувати стимул С, але вам все одно доведеться реагувати на нього — мережа відповідає С.
    • I - B — ігнорувати стимул B — мережа відповідає B.
    • R — згадати останній збережений стимул — мережа відповідає А.

    Система стробирования обслуговування BG повинна навчитися стріляти Go, щоб керувати оновленням PFC на випробуваннях магазину, щоб кодувати пов'язаний стимул для подальшого відкликання. Він також повинен навчитися запускати NoGo до ігнорування подразників, щоб вони не перезаписували раніше збережену інформацію. Нарешті, під час випробувань відкликання механізм виведення BG gating повинен керувати виведенням збереженої інформації з PFC. Дуже важливо розуміти, що мережа починає нічого не знати про семантику цих різних входів, і повинна повністю навчитися через пробу і помилки, що робити з різними входами.

    Щоб побачити, як це навчання розгортається, відкрийте модель SIR і дотримуйтесь вказівок звідти. Хоча ми не розглядаємо це тут для простоти, та сама модель PBWM, коли вона доповнена, щоб мати кілька паралельних смуг, може навчитися окремо оновлювати та підтримувати кілька частин інформації в робочій пам'яті та отримувати правильну інформацію, коли це необхідно. Хорошим прикладом цього попиту є завдання SIR-2, де замість того, щоб залучати єдиний сигнал управління завданням зберігання та відкликання, є два таких сигнали (тобто S1 і S2 і R1 і R2). Таким чином, мережа повинна навчитися окремо зберігати два стимули, оновлювати їх в окремі буфери та відповідним чином реагувати на основі підтримуваної інформації в правильному буфері, коли кий для відкликання R1 проти R2.