Чому Україні необхідно розробити власний законодавчий акт про штучний інтелект, а не наслідувати іноземні нормативи?
Автор: Олексій Костенко, керівник Наукової лабораторії імерсивних технологій та права в Інституті інформації, безпеки та права Національної академії правових наук України, доктор юридичних наук.
На тлі повномасштабної війни Україна одночасно тримає ще один малопомітний, але стратегічний фронт -- технологічний. І це -- обстоювання незалежності та конкурентоспроможності нашої країни у сфері технологій штучного інтелекту. Саме тут вирішується, якою буде українська цифрова держава майбутнього -- незалежною та захищеною чи вразливою до зовнішнього впливу. Чи зможе вона формувати власну політику щодо ШІ (АІ)?
Хто повинен визначати її напрямок — міністерські структури, іноземні компанії чи наукова спільнота країни? Відповідь очевидна: необхідно залучити громадськість до широких дискусій та налагодити системний діалог з експертами. Громадськість вже починає робити перші кроки у цьому напрямку. Наприклад, була заснована незалежна Національна науково-експертна рада, яка займається розвитком, регулюванням та міжнародним співробітництвом у сфері штучного інтелекту. До складу ради увійшли фахівці, які працюють з технологіями штучного інтелекту в різних сферах, від медицини до юриспруденції та оборони.
Вони запропонували своє бачення ключових проблем і можливих рішень у цій сфері.
Україна може опинитися під загрозою перетворення на майданчик для зовнішніх технологій і регуляторних стандартів, якщо вона продовжить лише копіювати іноземні моделі, такі як AI Act, що встановлює норми використання штучного інтелекту в країнах Європи. Пряме запозичення таких документів не враховує специфіку української реальності, зокрема повномасштабну війну, цифрові атаки та гібридні виклики.
Що необхідно здійснити: Україні слід створити власний законодавчий акт щодо штучного інтелекту, враховуючи військовий досвід, технологічні досягнення та потреби національного рівня. Під час війни країна досягла помітного прогресу, перейшовши від застосування ШІ у військових технологіях до впровадження його у сферах електронного управління, медицини, юриспруденції та освіти.
Водночас концепція "національного штучного інтелекту" як єдиного централізованого механізму виглядає надто складною для втілення в життя. Натомість доцільнішим буде створення галузевих технологічних хабів – спеціалізованих центрів знань і інновацій у певних секторах: Med AI (медичні технології), Law AI (юридичні рішення), Military AI (оборонні технології). Це мережі спеціалістів, організацій і цифрових платформ, які об'єднують ресурси, дані та експертизу для розробки практичних рішень у сфері ШІ. Ці хаби можуть функціонувати автономно, проте в тісній співпраці, створюючи основу нової цифрової державності.
Як наголошує докторка юридичних наук, професорка, заступниця директора Інституту держави і права імені В.Корецького НАН України з наукової роботи, академік НАПрНУ Наталя Оніщенко, класичні підходи до прав людини й народів не встигають за реальністю цифрової війни. Українська юриспруденція не готова до нових форм загроз, що виникають на перетині технологій і колективних прав. Традиційно вона краще реагує на порушення прав окремої людини. Але сучасна війна (зокрема інформаційна та цифрова) дедалі частіше б'є по колективних суб'єктах -- цілих народах, спільнотах, культурах. У результаті з поля зору випадають складні явища, де ці виміри перетинаються, -- як-от геноцид. Алгоритми штучного інтелекту можуть бути використані для таргетованого розпалювання ненависті, знищення цифрових архівів, перезапису історії, маргіналізації мови та культури в глобальному інформаційному просторі.
Що необхідно зробити: Якщо законопроект щодо штучного інтелекту не врахує ці ризики, він може стати лише безстороннім технічним документом, що регулює "алгоритми", без забезпечення захисту для суспільства як єдиного цілого. Мова йде про охорону мови, культурної спадщини, пам'яті та репутації спільнот у глобальному цифровому середовищі.
Професор, доктор юридичних наук, заступник керівника Департаменту з питань громадянства, помилування, державних нагород офісу президента України Дмитро Журавльов пропонує подивитися на ШІ не лише як на технологію, а як на виклик для громадянської культури.
З правового боку, ми маємо чітке уявлення про поняття громадянства: це формалізований зв'язок між особою та державою, що включає визначені права, обов'язки та гарантії. Однак громадянськість, яка відображає внутрішнє усвідомлення відповідальності, солідарності та готовності діяти на благо суспільства, залишається в тіні юридичних норм.
У цифрову еру ця проблема набуває загрозливого характеру. З одного боку, громадянин стає "користувачем" державних платформ і послуг. З іншого боку, потужні мовні моделі, які здебільшого розроблені великими корпораціями, формують у суспільстві небезпечну тенденцію: "знання більше не в людині, а в штучному інтелекті". Освіта, що активно впроваджує технології ШІ у навчальний процес, часто робить це без належних запобіжних заходів, фактично передаючи інтелектуальну та смислову ініціативу стороннім технологічним компаніям. Ці розробники, які не завжди працюють прозоро і керуються комерційними, а не освітніми інтересами, можуть ставити під загрозу якість освіти в Україні.
Дмитро Журавльов попереджає, що саме в цій точці проявляється кризова ситуація гуманітарного підґрунтя цифрової держави. Якщо ми не зможемо зберегти відповідальність громадян, існує ризик, що держава перетвориться на просту технічну платформу, яка функціонує, але позбавлена будь-якого ціннісного змісту.
Що робити: Потрібно створити власні академічні та секторальні моделі ШІ в межах української юрисдикції. Йдеться не про чергову "чорну скриньку", яка працює автономно й непрозоро, а про відкриту систему, розроблену в співпраці з українською науковою та освітньою спільнотою. Такі моделі мають працювати з чітко визначеними наборами даних, етичними принципами й прозорими механізмами аудиту.
Академічні моделі -- це системи ШІ для освіти й науки, які створюються в університетах або дослідницьких центрах (наприклад, для лінгвістики, історії чи педагогіки). Секторальні моделі -- це спеціалізовані ШІ-рішення для конкретних сфер: медицини, права, оборони тощо.
Українські інновації у сферах Med AI, Law AI та Military AI вже привертають увагу як союзників, так і нейтральних або навіть вороже налаштованих країн. У разі відсутності чіткої стратегії, ми можемо залишитися лише постачальниками ідей, не здатними впливати на міжнародні обговорення щодо етики та регулювання штучного інтелекту.
Кандидат юридичних наук, адвокат і доцент кафедри службового та медичного права ННІ права Київського національного університету імені Тараса Шевченка, Радміла Гревцова, звернула увагу на недостатню регуляцію у сфері захисту медичних даних. Розробка цифрових моделей людського тіла, органів і медичних історій, відомих як медичні симулякри, відкриває нові горизонти для діагностики та навчання. Однак, це також призводить до значних ризиків витоку особистої інформації, особливо при використанні іноземних корпоративних систем штучного інтелекту. Українське законодавство поки що не надає чітких вказівок щодо захисту таких даних.
Доктор медичних наук, доцент, заступник голови Державної служби України з лікарських засобів та контролю за наркотиками, професор кафедри прикладної медицини Університету "КРОК" Володимир Короленко наголосив: за рівнем значущості штучний інтелект у медичній сфері вже дорівнює ШІ у військовій. Ідеться не лише про підтримку військових чи оптимізацію медичної системи, а й про психічне здоров'я суспільства загалом. Помилки алгоритмів у сфері лікування або психологічної підтримки можуть мати довготривалі наслідки, які складно виправити стандартними механізмами контролю.
Що робити: Реалістична модель на найближчі роки -- це створення сильних, захищених кластерів Med AI, Law AI, Military AI, що працюють як лабораторії майбутнього та ядро цифрової держави. Вони мають поєднувати науку, бізнес, державу та силовий блок, але на умовах прозорості, етичних стандартів і чітких режимів доступу до даних.
Усі ці виклики потребують системних і термінових рішень. В умовах війни часу на помилки немає. Україна має шанс сформулювати власні галузеві захищені моделі штучного інтелекту -- з опорою на свій досвід, виклики й стратегічні інтереси. Інакше ризикує залишитися полігоном для чужих рішень і технологічних експериментів.