Skip to main content
LibreTexts - Ukrayinska

3: Висновок і рекомендації

  • Page ID
    53448
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)

    Наш звіт є одним з перших багатоінституційних розслідувань обізнаності студентів коледжів про те, як алгоритми формують новини та інформацію, яку вони отримують від інтернет-гігантів, таких як Google, Amazon, YouTube, Instagram та Facebook. Якісні дані були зібрані від студентів, які брали участь в одній з 16 фокус-груп та 37 телефонних інтерв'ю викладачів, у восьми коледжах та університетах США. Разом ці дискусії розглянули, як студенти зазнали кардинальних змін, спричинених алгоритмами, вивчаючи, наскільки питання персоналізації, захисту конфіденційності, машинного навчання та штучного інтелекту увійшли до класу.

    Це дослідження було проведено після висвітлення скандалу Cambridge Analytica, однієї з найбільш читаються новинних історій у 2018 році. 77 Потужні алгоритми пройшли через профілі у Facebook 87 мільйонів людей, щоб змінити виборців під час двох гаряче оскаржених кампаній: підтримка Brexit у Великобританії та президентські вибори Дональда Трампа в США З тих пір алгоритми чітко увійшли в публічну розмову, і студенти нашого дослідження, як і багато навколо них, були розчаровані непрозорими лініями кодування, намагаючись вплинути на їх взаємодію на популярних веб-сайтах.

    Більшість студентів визнали, що, оскільки інформація стала повсюдною, приховані важелі, які персоналізують результати та підштовхують нас до обраної інформації, часто маскують складність за появою простоти та ефективності. Більше того, багато хто, хоча і не всі, знали, що алгоритми, керовані даними, якщо вони не вивчені і неоскаржені, можуть загрожувати представницькій демократії та вирощуванню інформованих та зацікавлених громад.

    Важливо, що студенти змирилися і обурювалися алгоритмічною рекламою, новинами та інформацією. Тим не менш, багато хто знайшов такі сайти, як Google, YouTube, Instagram та Facebook, занадто корисними, щоб відмовитися. Багато хто, здавалося, змирився з повноваженнями нерегульованого медіа-середовища, але були готові взаємодіяти з платформами, щоб надати своє агентство та захистити свою конфіденційність. Їх занепокоєння часто супроводжувалося почуттям безсилля, а для деяких - нігілістичним страхом. Хоча деякі студенти стурбовані «моторошністю» алгоритмів, які підслуховують їхні офлайн-розмови, щоб спробувати продати їм продукт, інші мали занепокоєння щодо реальних наслідків автоматизованих систем прийняття рішень, які підсилюють соціальну нерівність.

    Факультет в наших інтерв'ю часто висловлював розчарування і безсилля всюдисущими алгоритмічними системами, які впливають на суспільство. Вони скаржилися на «втрату спільної культури» та порушили конфіденційність без відповідальності перед громадськістю. Їхня відповідь полягала в тому, щоб дотримуватися вузького набору джерел інформації, таких як The New York Times або NPR, і взагалі уникати платформ соціальних медіа.

    Посилання

    1. Меггі Адамс, Арі Ісаакман Бевакуа та Анна Дубенко (19 грудня 2018 року), «Найбільш читаються історії New York Times 2018 року» Історія #52: Метью Розенберг, Ніколас Конфессор та Керол Кадвалладр, «Як консультанти Трампа використовували дані мільйонів Facebook» (17 березня 2018 р.). Ця історія про Cambridge Analytica викликала жорстку критику з боку законодавців щодо ділових відносин Facebook та використання алгоритмів. https://www.nytimes.com/interactive/...p-stories.html. Дивіться також, Керол Кадвалдр (квітень 2019 р.), «Роль Facebook у Brexit - і загроза демократії», TED Talk, https://www.ted.com/talks/carole_cad...t_to_democracy

    Автори та атрибуція