Штучний інтелект та протидія злочинності

Виступ у ЛДУВС ім. Е.О. Дідоренка 13.11.2020

Питання, порушене в назві, є надзвичайно актуальним, але потребує уточнення. Найбільш поширеною класифікацією технологій штучного інтелекту є їх поділ на «сильний» та «слабкий» штучний інтелект. Сильний являє собою гіпотетичний пристрій, який має здатність мислити, усвідомлювати оточуючий світ та себе як особистість, виконувати всі завдання, як і людина, або навіть перевищувати її інтелектуальні здібності. Слабкий штучний інтелект орієнтований на вирішення одного або кількох завдань, які виконує людина. Наприклад, керування транспортним засобом, або гра в шахи [19].

На сьогодні очевидно, що сильний штучний інтелект є гіпотетичною технологією та залишатиметься в такій стадії ще невизначений час. Можливо, технології сильного штучного інтелекту отримають статус суб’єкта права, виникнуть нові сфери юстиції. Крім традиційної юстиції, можна буде казати про появу двох нових видів, умовно назвемо їх «змішана юстиція» та «юстиція штучного інтелекту». До змішаної юстиції будуть відноситися форми вирішення правових спорів між фізичними, юридичними особами, суспільством та роботами. До юстиції штучного інтелекту належатимуть форми вирішення правових спорів між роботами. Крім цього, функціонування даної системи юстиції буде забезпечувати протидію роботам, що являють загрозу для соціального розвитку та стабільності. Швидше за все копіювати людську систему юстиції для штучного інтелекту не будуть. Принципово різні фізичні характеристики та потреби вимагають апріорі відмовитися від такого підходу. Водночас створення даної системи стане необхідною умовою для того, щоб забезпечити людству можливість контролювати розвиток суспільних процесів. Скоріше за все, юстиція штучного інтелекту буде створена на основі роботів. Фізичних та інтелектуальних даних людини, очевидно, стане недостатньо для ефективного функціонування даної системи юстиції. Створення такої системи буде потребувати узагальнення в чіткі алгоритми досвіду, отриманого за час існування традиційної юстиції. Таке узагальнення, можливо, стане одним із основних напрямків майбутньої юридичної науки.

Імовірно, зміни у юстиції відбуватимуться за іншим сценарієм. На тепер очевидно тільки те, що вплив технологій сильного штучного інтелекту на протидію злочинності може бути досліджений виключно гіпотетично.

Водночас, значний інтерес має огляд можливостей використання так званого «слабкого» штучного інтелекту у сфері протидії злочинності. Автори дослідження Artificial Intelligence in the Context of Crime and Criminal Justice, здійсненого Korean Institute of Criminology, Canada Research Chair in Cybersecurity, ICCC та Université de Montréal [5] визначають чотири загальні групи ризиків використання таких технологій: таємниця приватного життя, підштовхування до певних дій, дискримінація, непрозорість.

Обробка з використанням технологій штучного інтелекту великих обсягів інформації, які генеруються під час повсякденної діяльності сучасної людини, створює нові небезпеки для прайвесі. Так у відомій роботі М. Косінскі аргументував, що 68 «лайків» у Фейсбук вистачить для того, щоб із досить великою точністю встановити тип особистості, стать, колір шкіри та політичні уподобання [16]. Також у контексті ризиків для таємниці приватного життя досить часто наводиться приклад роботи програми лояльності мережі супермаркетів Target (США). Алгоритм, що використовувала мережа, за історією покупок молодої жінки передбачив її вагітність та почав надсилати їй акційні пропозиції товарів для новонароджених до того, як про вагітність дізналася сама жінка [10].

Наступна група ризиків пов’язана з можливістю впливу на поведінку людини шляхом персоналізації контенту соціальних медіа та інших джерел інформації. Ця тема достатньо добре досліджена на прикладах роботи алгоритмів, що генерують стрічки новин соціальних медіа, персональних рекомендацій під час здійснення пошукових запитів, так званої таргетованої реклами. У подібному контексті варто пригадати й відому ситуацію з передвиборчою кампанією Д. Трампа та використанням для цього інформаційних профілів 87 млн. американців, отриманих Cambridge Analytica шляхом аналізу активності користувачів Facebook [15].

Ризик дискримінації пов’язаний із принципами роботи «слабкого» штучного інтелекту. Такі технології працюють шляхом порівняння отриманих даних із великим обсягом інформації опрацьованою системою під час так званого процесу «навчання». Цей процес, у найбільш загальних рисах, полягає в тому що певні дані, наприклад, рукописні символи, позначаються так, як їх має розпізнавати алгоритм, та завантажуються до системи. Такі дані прийнято називати навчальними. Потім генерується набір тестових даних і здійснюється перевірка роботи системи, наскільки правильно система розпізнає тестові дані. Коли досягається необхідний рівень точності розпізнавання, система вводиться в експлуатацію. Важливо й те, що протягом експлуатації система постійно корегує свою роботу й підвищує точність результатів. Можна сказати, що ризик дискримінації закладений у самому принципі функціонування «слабкого» штучного інтелекту, який буде використовуватися для розв’язання соціальних задач. Очевидно, що в будь- якій сфері діяльності людини існує певна упередженість. Якщо результати цієї діяльності стануть навчальним набором даних, отримаємо систему штучного інтелекту, яка буде повторювати людську упередженість, ба більше, з кожним новим рішенням упередженість буде помножуватися. Прикладом означеної проблеми може слугувати упередженість автоматизованих систем відбору персоналу. «Навчальний» набір даних для таких систем, як правило, являє собою відомості щодо успішних випадків підбору персоналу. Оскільки цей процес у багатьох сферах не є гендерно нейтральним, існує ризик отримати системи, які будуть помножувати гендрену нерівність під час функціонування. Широко відомим є приклад такої упередженості в роботі алгоритму найму працівників компанії Amazon [1].

Нарешті непрозорість полягає в тому, що переважна більшість проектів у сфері штучного інтелекту є комерційними. Через це виробники тримають у таємниці особливості алгоритмів, оскільки саме вони забезпечують конкурентні переваги на ринку відповідних послуг. Як зазначалося раніше, системи штучного інтелекту здійснюють постійне вдосконалення своєї роботи, спираючись на її поточні результати. З часом відповідь на питання, чому система зробила такий вибір, стане дуже складною. Необхідно буде проаналізувати не тільки навчальний і тестовий набори, але й з’ясувати кожне прийняте рішення та оцінити його вплив на розвиток системи. В умовах обмеженого доступу до алгоритмів таке завдання стає практично неможливим.

Названі загальні ризики автори згаданого дослідження [5] інтерпретують у трьох напрямах, що складають, на їхню думку, зміст впливу технологій штучного інтелекту на кримінальну юстицію: вчинення злочинів, діяльність правоохоронців, здійснення правосуддя.

Аксіомою є те, що злочинці використовують технологічні досягнення. Розробки у сфері штучного інтелекту не є винятком. Фахівці зазначають, що для успішної реалізації проектів на основі штучного інтелекту необхідні: доступ до значних об’ємів структурованих даних, спеціальне програмне забезпечення та знання, відповідне обладнання. Сучасний рівень інформатизації суспільства дозволяє зробити висновок про те, що всі ці складові є доступними значній кількості суб’єктів. Надвеликі обсяги інформації, специфічне програмне забезпечення численні онлайн курси з технологій штучного інтелекту широко представлені у вільному доступі. До того ж існує достатньо розгалужений кримінальний ринок даних. Обладнання достатньої потужності завдяки успіхам технології представлено на легальному ринку за доступною ціною. Усе це дозволяє прогнозувати широке використання технологій штучного інтелекту для злочинних цілей [5, с. 33-37].

Означені вище загальні ризики для таємниці приватного життя, а також впливу на поведінку людей шляхом формування персонального інформаційного середовища можуть бути використані для профілювання значної кількості людей із метою подальшого шахрайства шляхом автоматизованого фішигу або вішингу. Вірогідними можуть стати масштабні кібератаки на основі автоматизованого виявлення уразливостей комп’ютерних систем та їх знову ж таки автоматизованого використання. Протиправне використання технологій штучного інтелекту можливе також шляхом створення високоякісних підробок відео- або аудіоконтенту, розробки надскладних схем легалізації доходів, здобутих злочинним шляхом тощо [5, с. 40-56].

Використання технологій штучного інтелекту здатне не тільки значно збільшити масштаби традиційної злочинності, можливою є поява принципово нових видів кримінальних правопорушень. Ідеться про так звані «змагальні» атаки (adversarial attacks) та «отруєння» штучного інтелекту.

Перші полягають у відшукуванні недосконалостей створених систем розпізнавання образів або мовлення (звуку) та подальшому їх використанні для приведення пристроїв зі штучним інтелектом у некоректний режим роботи. Принцип здійснення такої атаки добре ілюструє випадок зі «зламом» американської платформи онлайн-навчання Edgenuity. Запропоновані учням завдання передбачали написання коротких повідомлень. Користувачі помітили, що система оцінює письмові роботи майже миттєво, отже, робить це автоматично. Ба більше, максимальний бал можна отримати, якщо, замість відповіді, вводити набір слів, які мають відношення до теми. У такий спосіб переважна більшість учнів отримала найвищий бал. Уразливість системи штучного інтелекту, яка полягала у відсутності можливості відмежовувати текст від набору ключових слів, була використана для компрометації цієї системи [3]. Зрозуміло, що наслідки змагальних атак можуть бути більш небезпечними. Як приклад подібних дій досить часто згадують наклеювання стрічок на знаки дорожнього руху, які приводять до порушень оцінки дорожньої обстановки системами автономного керування транспортними засобами. Такі атаки можуть полягати й у розробці засобів для порушення систем розпізнавання обличчя чи ідентифікації голосу, для аналізу систем автоматизованого виявлення шахрайських операцій в платіжних системах із метою подальшого приховування подібних операцій тощо.

«Отруєння» штучного інтелекту полягає у втручанні в процес розробки пристроїв шляхом внесення змін до так званих «навчальних» наборів даних. У результаті подібних дій пристрій зі штучним інтелектом у певних ситуаціях функціонує у спосіб, який значно відрізняється від запланованого розробниками [5, с. 58-60].

Використання систем штучного інтелекту правоохоронними та судовими органами здатне забезпечити якісне оновлення їх діяльності. У зарубіжних країнах до практики правоохоронних органів впроваджені проекти, пов’язані із класифікацією та розпізнаванням об’єктів, розпізнаванням звукових сигналів (мови або, наприклад, системи визначення пострілів). Запропоновані технічні рішення для аналізу великих обсягів даних на основі алгоритмів машинного навчання. У такий спосіб здійснюється аналіз відомостей про телефонні або інтерент-з’єднання, про використання платіжних систем тощо. Подібні рішення використовуються як потужні інструменти розслідування злочинів. Розробляються системи прогнозування злочинності та оцінки ризику індивідуальної протиправної поведінки на основі штучного інтелекту.

Л. Еліот пропонує класифікацію рівнів автоматизації правозастосовчої діяльності. На його думку, їх сім. Рівень 0 – автоматизація відсутня. Рівень 1 – проста автоматизація, використання електронного документообігу, онлайн сервісів законодавчої інформації. Рівень 2 – розширена автоматизація, використання систем машинного навчання для класифікації даних щодо юридичної практики, пошукові запити до юридичних баз даних на основі нейролінгвістичного програмування. Рівень 3 – напівавтономні системи, експертні системи підтримки формулювання висновків для конкретних справ. Наприклад, суддя під час підготовки висновку по конкретній справі отримує пропозиції від автоматизованої системи, що ґрунтуються на попередній практиці щодо подібних випадків. Рівень 4 – галузева автономність, повністю автономні рішення для окремих галузей юридичної практики. Наприклад, автономна, без участі людини, система нотаріату. Рівень 5 – повна автономність. Існуюча система правозастосовчої діяльності є повністю автономною та функціонує на основі систем «сильного» штучного інтелекту, які повністю відтворюють людський інтелект. Рівень 6 – повна автономність на основі штучного інтелекту, який перевищує інтелект людини. Як справедливо зазначає автор, на сьогодні існують та є більш-менш розповсюдженими системи першого та другого рівнів. Як прототипи або в рамках експериментальної експлуатації  існують системи третього рівня [6]. Це, зокрема, згадані раніше системи прогнозування злочинності та оцінки ризику індивідуальної протиправної поведінки.

Проте через ризики дискримінації та непрозорості впровадження останніх викликає багато дискусій. Алгоритми оцінки кримінального ризику (criminal risk assessment algorithms) використовуються деякими судами для прийняття рішень щодо визначення виду покарання, доцільності перебування у в’язниці до суду, суворості вироків. Теоретично це зменшує упередженість, оскільки судді приймають рішення на основі обробки даних, а не власних, можливо, суб’єктивних, переконань. Притому постає надзвичайно важливе питання. Через те що базою для алгоритму є прийняті раніше рішення, він (алгоритм) може посилювати й увічнювати упередження, генерувати значно більшу кількість упереджених даних для подальших циклів ще більш упереджених рішень [8]. Наприклад, якщо перед суддею особа з невеликим доходом, алгоритм із дуже великою вірогідністю буде радити застосувати ув’язнення до суду. Наступного разу в подібній ситуації алгоритм буде більш категоричний, іншого – ще й ще…

Подібні проблеми існують і під час впровадження систем прогнозування злочинності. Ідея полягає в тому, що на підставі аналізу даних про зареєстровані кримінальні правопорушення системи визначають райони, які потребують посиленої уваги правоохоронців. У ці райони направляється більша кількість патрулів, чим має забезпечуватися ефективніше використання ресурсів та досягатися необхідний рівень безпеки громадян. Результати впровадження таких системи показали зворотній бік проблеми. Чим більше поліцейських направлялося в заданий район, тим більшою була кількість виявлених у цьому районі правопорушень. Алгоритм фіксував прийняте рішення як правильне і продовжував рекомендувати посилені наряди для визначених районів. У такий спосіб увічнювався «кримінальний» статус таких районів, але загальне використання ресурсів поліції не ставало більш ефективним, загальний рівень безпеки громадян не підвищувався.

Показовим є те, що в червні 2020 міська рада Санта Круз, американського міста, яке одним із перших почало застосовувати для потреб поліції технології розпізнавання обличчя та прогнозування злочинів, відмовилася від використання таких систем, ураховуючи численні прояви упередженості їхньої роботи та недостатню ефективність. Рішення полягало в забороні використовувати обидві технології, за винятком схвалення міською радою на основі «висновків про те, що технологія і дані, які використовуються для цієї технології, відповідають науково підтвердженим та рецензованим дослідженням, захищають і охороняють цивільне населення, права і свободи всіх людей і не увічнюють упередженість» [9].

Як приклад шкоди, заподіяної прогностичною поліцейською програмою, наводиться робота офісу шерифа округа Паско (США). Після того, як 15-річний підліток був затриманий за крадіжку велосипедів, алгоритм постійно направляв поліцію для перевірки його самого та його родини. За п’ять місяців поліція приходила до нього додому 21 раз. Вони перевіряли його в спортивній залі, відвідували батьків за місцем роботи. Газета Tampa Bay Times повідомляла, що за 5 років офіс шерифа здійснив більше12 500 аналогічних превентивних відвідувань [13].

Крім зазначених проблем із дискримінацією, багато питань виникає й через непрозорість функціонування зазначених систем. Як зауважувалося раніше, покрокове відстеження рішення, що приймається подібними системам, є доволі складною проблемою. І якщо такі ризики є допустимим під час, наприклад, автоматизованого перекладу текстів з остаточним їх редагуванням людиною, то в ситуації коли такі алгоритми використовуються у сфері юстиції, вони мають бути максимально відкритими та прозорими.

Зрештою отриманий досвід дозволяє фахівцям вважати, що недоліки прогностичного програмного забезпечення приводять до ситуації, коли вразливі члени суспільства стають об’єктом переслідувань із боку поліції, а це, своєю чергою, підриває довіру до поліції, створює більшу небезпеку [7].

Означені проблемні аспекти дозволяють авторам згаданого раніше дослідження[5] сформулювати низку критичних висновків щодо потенціальних можливостей використання технологій штучного інтелекту у сфері протидії злочинності. Найбільшої уваги, на нашу думку, заслуговують наступні.

По-перше, для побудови достатньо надійних систем «слабкого» штучного інтелекту необхідні великі обсяги даних. Водночас, даних, що збирають правоохоронні та судові органи, може бути недостатньо. Тут варто згадати запропонований нами критичний аналіз національних систем накопичення інформації про злочинність: наявна статистична інформація не дає можливості робити обґрунтовані висновки щодо стану кримінально-правового регулювання; дані щодо обліку правопорушень та судового розгляду неможливо інтегрувати; їх аналіз є обмежено ефективним [22].

По-друге, ризик непрозорості разом із разом із принципами машинного навчання, покладеними в основу наявних сьогодні технологій штучного інтелекту, робить неможливим використання досягнень сучасної кримінології. Велика частина знань, отриманих людством під час вивчення злочинності, опиняється через ці особливості поза межами автоматизованих прогнозів. Показовим тут є те, що один із найбільших поширених програмних продуктів, призначених для прогнозування злочинності, PredPol, використовує алгоритм, адаптованийі з принципово іншої сфери – сейсмології [5, с. 149].

По-третє, технології штучного інтелекту розвиваються дуже швидко. Наявне на сьогодні технічне рішення може виявитися застарілим уже через декілька років. Для того щоб упевнитися в цьому, достатньо порівняти роботу Google Translator сьогодні та, наприклад, п’ять років тому. У таких умовах масштабна імплементація технологій штучного інтелекту у сфері кримінальної юстиції може виявитися передчасною.

Технології штучного інтелекту, тим не менше, здатні забезпечити якісне оновлення протидії злочинності. Для чого вони мають використовуватися? Відповідь може бути сформульована таким чином: максимально можливий рівень індивідуалізації забезпечить принципово новий рівень ефективності кримінально-правового регулювання. Враховуючи зазначене, першочерговим кроком розвитку національної протидії злочинності в контексті використання технологій штучного інтелекту має стати збір та аналіз якомога більших обсягів даних щодо призначених покарань, психометричних характеристик злочинців, особливостей їх посткримінальної поведінки тощо. Наведені проблеми дискримінаційних рішень наявних сьогодні систем штучного інтелекту можуть бути подолані шляхом використання значно більшої кількості аргументів. Отже, для того щоб мати можливість забезпечити ефективне кримінально-правове регулювання та не залишатися осторонь світового наукового дискурсу, необхідно мати достатню кількість та якість даних. Паралельно із вдосконаленням національного кримінального законодавства має бути створена принципово нова система збору даних про стан кримінально-правового регулювання. Необхідним є якісно інший рівень накопичення даних щодо застосування закону та його впливу на поведінку засуджених, створення комплексної системи інформаційного забезпечення кримінально-правового регулювання [22].

Вплив технологій штучного інтелекту на протидію злочинності, на нашу думку, не вичерпуються оновленням злочинності та новими методами роботи правоохоронців і суддів. Самостійним сегментом тут слід вважати нові можливості в дослідженні злочинності. «Зростаюча інтеграція технологій у наше життя надає доступ до безпрецедентних обсягів даних про повсякденну поведінку суспільства. Такі дані відкривають нові можливості для роботи в напрямі розуміння наших складних соціальних систем у рамках нової дисципліни, відомої як обчислювальна соціальна наука (Computational Social Science)». Це зазначено у Маніфесті обчислювальної соціальної науки[11]. Методологія даної науки поділяється на такі групи, як: автоматизація збору даних, аналіз соціальних систем, соціальні геоінформаційні системи, моделювання соціальних систем тощо [4]. Дисципліна використовує комп’ютерне моделювання суспільства, дані, зібрані з мобільних та соціальних мереж, онлайн-експерименти із залученням сотень тисяч людей, для того щоб отримати відповіді на запитання, які раніше було неможливо дослідити. А. Манн влучно називає результати, що отримує дана наука, «поглядом на суспільство у великій розподільчій здатності (in high resolution)» [12].

Використання обчислювальної соціальної науки для розв’язання завдань, що стоять перед кримінологією, є достатньо перспективним. Наприклад, одним iз методів останньої групи є агентне моделювання (ABM, agent-based modeling). Ключові положення, що характеризують даний метод, наступні: «агент – автономний обчислюваний об’єкт із певними властивостями та діями; агенте моделювання – вид обчислювального моделювання, де явище моделюється шляхом визначення агентів та їх взаємодії» [18, с. 1]. Реалізується таке моделювання шляхом використання спеціалізованого програмного забезпечення, яке дозволяє описати властивості агентів та обчислювати результати їх взаємодії. Результат використання такого методу прийнято називати штучним суспільством (artificial society), що визначається як «створена з використанням комп’ютерної техніки симуляційна модель суспільства або групи людей, котра базується на агентах та зазвичай обмежена їх взаємодією в конкретній ситуації» [2].

З використанням програмного забезпечення NetLogo нами було створено модель протидії злочинності. Вихідний код моделі та демонстраційні матеріали представлено у вільному доступі [23; 21]. Хоча розробка моделі була пілотажним дослідженням, проте навіть на такому рівні вона дозволила підтвердити важливу гіпотезу: посилення покарання є менш ефективним, ніж заходи, не пов’язані з репресією. Сфера застосування методу агентного моделювання є достатньо широкою: дослідження феномену «кримінальної хвилі», встановлення порогових значень параметрів штучного суспільства, при яких здійснюється тотальна криміналізація, побудова гіпотез щодо найбільш ефективного використання суспільних ресурсів для протидії злочинності, вивчення проблем довіри до правоохоронних та судових органів, аналіз впливу щільності населення на рівень злочинності.

То ж для продовження дискусії пропонуємо наступні положення.

  1. Наукова дискусія щодо впливу штучного інтелекту на протидію злочинності як початкового аргументу має враховувати фактичний стан розвитку технологій.
  2. Вплив наявних технологій штучного інтелекту на протидію злочинності доцільно розглядати в таких вимірах: нові види злочинів, оновлення діяльності правоохоронних і судових органів, оновлення методів кримінологічних досліджень.
  3. Використання «слабкого» штучного інтелекту правоохоронними та судовими органами має значні обмеження, обумовлені принципами функціонування такої технології. Ці обмеження можуть бути подолані шляхом збільшення кількості аргументів для прийняття рішень.
  4. Першочерговим кроком впровадження національних систем штучного інтелекту у сфері протидії злочинності має стати створення системи комплексного інформаційного забезпечення кримінально-правового регулювання.
  5. Нові можливості, які отримує сучасна кримінологія в контексті розвитку обчислювальної соціальної науки, мають значні перспективи використання. Основним напрямом впровадження пропонується вважати наукову експертизу проєктів штучного інтелекту, які пропонується використовувати у сфері протидії злочинності з метою мінімізації ризиків негативних наслідків такого використання.

Використані джерела:


  1. 5 Examples of Biased Artificial Intelligence // Logically. 30.07. 2019. URL : https://www.logically.ai/articles/5-examples-of-biased-ai
  2. Branke J. Artificial Societies. URL:https://link.springer.com/referenceworkentry/10.1007%2F978-0-387-30164-8_36.
  3. Chin M. These students figured out their tests were graded by AI — and the easy way to cheat. “He’s getting all 100s” // The Verge. 2.09.2020. URL : https://www.theverge.com/2020/9/2/21419012/edgenuity-online-class-ai-grading-keyword-mashing-students-school-cheating-algorithm-glitch
  4. Cioffi-Revilla C. Computational Social Science // Wiley Interdisciplinary Reviews Computational Statistics 2(3). May 2010. P. 259-271.
  5. Dupont B., Stevens Y., Westermann H., Joyce M. Artificial Intelligence in the Context of Crime and Criminal Justice, Korean Institute of Criminology, Canada Research Chair in Cybersecurity, ICCC, Université de Montréal, (2018). URL:https://www.cicc-iccc.org/public/media/files/prod/publication/files/Artificial-Intelligence-in-the-Context-of-Crime-and-Criminal-Justice_KICICCC_2019.pdf.
  6. Eliot L. An Impact Model of AI on the Principles of Justice: Encompassing the Autonomous Levels of AI Legal Reasoning. URL:https://www.academia.edu/44020078/An_Impact_Model_of_AI_on_the_Principles_of_Justice_Encompassing_the_Autonomous_Levels_of_AI_Legal_Reasoning.
  7. Guariglia M. Technology Can’t Predict Crime, It Can Only Weaponize Proximity to Policing. Electronic Frontier Foundation. 3.09.2020. URL:https://www.eff.org/deeplinks/2020/09/technology-cant-predict-crime-it-can-only-weaponize-proximity-policing.
  8. Hao K. AI is sending people to jail—and getting it wrong. MIT Technology Review. 21.01.2019. URL:https://www.technologyreview.com/s/612775/algorithms-criminal-justice-ai/.
  9. Ibarra N. Santa Cruz becomes first U.S. city to approve ban on predictive policing. Santa Cruz Sentinel. 23.06.2020. URL:https://www.santacruzsentinel.com/2020/06/23/santa-cruz-becomes-first-u-s-city-to-approve-ban-on-predictive-policing/.
  10. Kashmir Hill, “How Target Figured Out A Teen Girl Was Pregnant Before Her Father Did”, Forbes (16 February 2012). URL:https://www.forbes.com/sites/kashmirhill/2012/02/16/how-target-figured-out-a-teen-girl-was-pregnant-before-her-father-did/.
  11. Manifesto of Computational Social Science R. Conte, N. Gilbert, G. Bonelli, C. Cioffi-Revilla, G. Deffuant, J. Kertesz, V. Loreto, S. Moat, J. Nadal, A. Sanchez, A. Nowak, A. Flache, M. San Miguel, and D. Helbing. European Physical Journal Special Topics EPJST (2012). URL:https://www.bibsonomy.org/publication/20c26ecde5981441fee65c48864bb02b6/everyaware_bib.
  12. Mann A. Core Concept: Computational social science // PNAS January 19, 2016 113 (3) 468-470; URL:https://doi.org/10.1073/pnas.1524881113.
  13. McGrory K., Bedi N. Targeted. The Tampa Bay Times. 3.09.2020 URL:https://projects.tampabay.com/projects/2020/investigations/police-pasco-sheriff-targeted/intelligence-led-policing/.
  14. McMullan A. I. Judges: The Future of Justice Hangs in the Balance. Medium. 14.02.2019. URL:https://medium.com/s/reasonable-doubt/a-i-judges-the-future-of-justice-hangs-in-the-balance-6dea1540daaa.
  15. Meyer, Robinson, “My Facebook Was Breached by Cambridge Analytica. Was Yours?”, The Atlantic (10 April 2018). URL:https://www.theatlantic.com/technology/archive/2018/04/facebook-cambridge-analytica-victims/557648/.
  16. Michal Kosinski, David Stillwell & Thore Graepel, “Private traits and attributes are predictable from digital records of human behavior (2013) 110:15 Proceedings of the National Academy of Sciences 5802.
  17. Rose T. When U.S. air force discovered the flaw of averages.Thestar.com. 16.01.2016. URL:https://www.thestar.com/news/insight/2016/01/16/when-us-air-force-discovered-the-flaw-of-averages.html.
  18. Wilensky U., Rand W. (2015). An Introduction to Agent-Based Modeling: Modeling Natural, Social, and Engineered Complex Systems with NetLogo MIT Press. 505 p.
  19. Баранов О. А. Інтернет речей і штучний інтелект: витоки проблеми правового регулювання (частина 1). URL:http://aphd.ua/publication-376/.
  20. Карчевський М. В. Big Data та ефективність кримінально-правового регулювання. Вісник Луганського державного університету внутрішніх справ імені Е. О. Дідоренка. 2018. № 3. С. 83-90.
  21. Карчевський М.В. Агентне моделювання – нові можливості дослідження злочинності. Karchevkiy.org блог. URL : https://karchevskiy.org/2020/09/13/abm/
  22. Кримінально-правове регулювання в Україні: реалії та перспективи (аналітичні матеріали) / М. В. В’юник, М. В. Карчевський, О. Д. Арланова; упоряд. Ю. В. Байліе. Харків: Право, 2020. С. 197-204.
  23. Посилання для завантаження моделі:
    https://karchevskiy.org/2020/08/02/model-1/.
  24. Савинова М. В чем разница между искусственным интеллектом, машинным обучением и глубоким обучением? 27.08.2018. URL:https://blogs.oracle.com/russia/ai-ml-dl-differ.

Напишіть відгук

Заповніть поля нижче або авторизуйтесь клікнувши по іконці

Лого WordPress.com

Ви коментуєте, використовуючи свій обліковий запис WordPress.com. Log Out /  Змінити )

Twitter picture

Ви коментуєте, використовуючи свій обліковий запис Twitter. Log Out /  Змінити )

Facebook photo

Ви коментуєте, використовуючи свій обліковий запис Facebook. Log Out /  Змінити )

З’єднання з %s