| Назва статті | Штучний інтелект і персональні дані: до питання про пошук балансу інтересів |
|---|---|
| Автори |
Олег Посикалюк
кандидат юридичних наук, доцент,
завідувач сектору організації державної влади та місцевого
самоврядування відділу з питань правової політики, організації
публічної влади Дослідницької служби Верховної Ради України,
перший заступник головного редактора юридичного журналу
“Право України”
(Київ, Україна)
ORCID ID: https://orcid.org/0000-0002-8841-8481
oleg.posykaliuk@gmail.com
|
| Назва журналу | Юридичний журнал «Право України» (україномовна версія) |
| Номер журналу | 7 / 2025 |
| Сторінки | 122 - 137 |
| Анотація | У статті досліджується фундаментальний конфлікт між потребами сучасних систем штучного інтелекту (ШІ), зокрема великих мовних моделей (LLM), у величезних масивах даних (“data hunger”) та стандартами захисту персональних даних. Актуальність дослідження зумовлена стрімким впровадженням генеративного ШІ (ChatGPT, Gemini, Copilot), яке створює системні ризики для приватності, включаючи алгоритмічну упередженість, деанонімізацію та непрозорість “чорних скриньок”. Технологічні інновації значно випереджають розвиток адекватного правового регулювання. Метою статті є дослідження правових, технічних та організаційних заходів, які вживаються для пошуку балансу між інтересами розробників ШІ та правами суб’єктів персональних даних. У статті проаналізовано: 1) невідповідність ключових принципів Загального регламенту про захист даних (мінімізація даних, обмеження мети) архітектурі великих мовних моделей LLM та доповнюючу роль Акта ЄС про ШІ; 2) ефективність технічних заходів (PETs), таких як синтетичні дані, довірені середовища виконання та федеративне навчання; 3) організаційні підходи та політики приватності OpenAI, Google і Microsoft. У висновках наголошується, що компанії впровадили дихотомію в гарантіях захисту: надійні договірні умови для корпоративних клієнтів і модель “opt-out” для масових споживачів, що перекладає тягар захисту приватності на самого користувача. Впровадження технічних заходів залишається частковим через їх ресурсомісткість. Констатується, що наявних заходів недостатньо для забезпечення реального балансу інтересів для індивідуальних користувачів. |
| Ключові слова | штучний інтелект; персональні дані; Загальний регламент про захист даних; Акт ЄС про штучний інтелект; великі мовні моделі; політика приватності; ChatGPT; Gemini; Copilot |
| References | Bibliography Journal articles 1. Almufarreh A, Ahmad A, Arshad M, Choo Wou O, Elechi R, ‘Ethical implications of ChatGPT and other large language models in academia’ [2025] 8 Frontiers in Artificial Intelligence doi: 10.3389/frai.2025.1615761. 2. Davies T, ‘Data Hunger: The Deep Connection Between the AI Chatbot and the Human’ [2025] 44(1) IEEE Technology and Society Magazine 43–50. 3. Mühlhoff R, Ruschemeier H, ‘Regulating AI with Purpose Limitation for Models’ [2024] 1 Journal of AI Law and Regulation 24–39. 4. Parsons J, Lukyanenko R, Greenwood B, Cooper C, ‘Understanding and Improving Data Repurposing’ [2025] MIS Quarterly 1–50 https://doi.org/10.48550/arXiv.2506.09073. 5. Rajasekharan A, Zeng Y, Padalkar P, Gupta G, ‘Reliable Natural Language Understanding with Large Language Models and Answer Set Programming’ [2023] 385 Electronic Proceedings in Theoretical Computer Science 274–287. 6. Ruschemeier H, ‘Generative AI and data protection’ [2025] 1 Cambridge Forum on AI: Law and Governance doi:10.1017/cfl.2024.2. 7. Wolff J, Lehr W, Yoo C S, ‘Lessons from GDPR for AI Policymaking’ [2024] 27(4) Virginia Journal of Law & Technology 20, 22. 8. Yu P, Xu H, Hu X, Deng C, ‘Leveraging Generative AI and Large Language Models: A Comprehensive Roadmap for Healthcare Integration’ [2023] 11(20) Healthcare 2776. 9. Bazalytskyi V, ‘Vrehuliuvannia pytannia obrobky personalnykh danykh shtuchnym intelektom u Zahalnomu rehlamenti iz zakhystu personalnykh danykh (GDPR)’ [2024] 6(24) Aktualni pytannia u suchasnii nautsi. Ceriia “Pravo” 406–419 (in Ukrainian). 10. Bielova M, Bielov D, ‘Vyklyky ta zahrozy zakhystu personalnykh danykh u roboti zi shtuchnym intelektom’ [2023] 79(2) Naukovyi visnyk Uzhhorodskoho natsionalnoho universytetu. Seriia: Pravo 17–22 (in Ukrainian). 11. Braichevskyi S, ‘Problema personalnykh danykh v systemakh Internetu rechei z elementamy shtuchnoho intelektu’ [2019] 3 Informatsiia i pravo 61–67 (in Ukrainian). 12. Hachkevych A, ‘Nahliad natsionalnykh orhaniv YeS iz zakhystu danykh za obrobkoiu personalnykh danykh systemamy shtuchnoho intelektu (na prykladi ChatGPT)’ [2025] 2(4) Analitychno-porivnialne pravoznavstvo 154–160 (in Ukrainian). 13. Kolesnikov A, Chapelskyi Ya, Budnyk V, Kozhenovskyi Yu, ‘Transformatsiia systemy zakhystu personalnykh danykh pid vplyvom rozvytku tekhnolohii shtuchnoho intelektu’ [2025] 2 Ekonomika. Finansy. Pravo 106–109 (in Ukrainian). 14. Nekrutenko V, ‘Do pytannia systematyzatsii ryzykiv, sprychynenykh obroblenniam personalnykh danykh iz vykorystanniam tekhnolohii shtuchnoho intelektu’ [2021] 4(119) Visnyk Kyivskoho natsionalnoho universytetu imeni Tarasa Shevchenka (iurydychni nauky) 53–58 (in Ukrainian). 15. Punda O, Arziantseva D, ‘Zabezpechennia zakhystu personalnykh danykh fizychnykh osib v umovakh rozvytku shtuchnoho intelektu’ [2024] 2(30) Nauka i tekhnika sohodni. Seriia “Pravo” 132–142 (in Ukrainian). 16. Rezvorovych K, Bereda M, ‘Vplyv shtuchnoho intelektu na pravovu systemu ta zakhyst personalnykh danykh u tsyfrovu epokhu’ [2024] 4(4) Uspikhy i dosiahnennia u nautsi. Seriia “Pravo” 241–248 (in Ukrainian). 17. Zaiarnyi O, Derkachenko Yu, ‘Deiaki osoblyvosti obrobky personalnykh danykh pry vykorystanni chat-botiv zi shtuchnym intelektom na prykladi ChatGPT’ [2023] 29 Yurydychnyi biuleten 55–62 (in Ukrainian). Conference papers 18. Sap M, Shwartz V, Bosselut A, Choi Y, Roth D, ‘Commonsense Reasoning for Natural Language Processing’, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Tutorial Abstracts (Association for Computational Linguistics 2020) 27–33. Websites 19. Afonja G, Sim R, Lin Z, Inan H A, Yekhanin S, ‘The Crossroads of Innovation and Privacy: Private Synthetic Data for Generative AI’ (May 29, 2024) (accessed 27.07.2025). 20. AI Principles (accessed 27.07.2025). 21. Artificial Intelligence – Model Personal Data Protection Framework. Office of the Privacy Commissioner for Personal Data, Hong Kong 2024 (accessed 27.07.2025). 22. Business data privacy, security, and compliance (accessed 27.07.2025). 23. Confidential Computing (accessed 27.07.2025). 24. Generative AI in Google Workspace Privacy Hub (accessed 27.07.2025); Enterprise data protection in Microsoft 365 Copilot and Microsoft 365 Copilot Chat (accessed 27.07.2025). 25. Improving Image Generation with Better Captions (OpenAI) (accessed 27.07.2025). 26. Microsoft Copilot privacy controls (accessed 27.07.2025). 27. Microsoft Responsible AI: Principles and approach (accessed 27.07.2025). 28. Numoto T, ‘Microsoft Trustworthy AI: Unlocking human potential starts with trust’ (Sep 24, 2024) (accessed 27.07.2025). 29. OECD (2025), “Sharing trustworthy AI models with privacy-enhancing technologies”, OECD Artificial Intelligence Papers, No. 38, OECD Publishing, Paris, https://doi.org/10.1787/ a266160b-en. 30. OpenAI Privacy Portal (January 12, 2024) (accessed 27.07.2025). 31. Privacy policy (27 June 2025) (accessed 27.07.2025). 32. Schwabe C, ‘AI and data protection in practice - between innovation and regulation’ (7 April 2025, Robin Data GmbH) (accessed 27.07.2025). |
| Електронна версія | Завантажити |