Przepisy wprowadzane są jednak swoim tempem, natomiast szybkość rozwoju i częstotliwość wykorzystania aplikacji czy asystentów AI przez firmy wydaje się startować w zupełnie innej lidze. Podczas gdy właściwie standardem stało się użytkowanie asystentów AI przez programistów przy tworzeniu kodów, pojawia się pytanie czy przedsiębiorstwo, w którym powstaje taki kod, posiada do niego prawa autorskie majątkowe? Kto tak naprawdę jest autorem przy wytworach „wypluwanych” przez chatGPT czy Copilot? Jak może poradzić sobie z tym Twoja firma? - Podpowiada kancelaria https://paluckiszkutnik.pl
Problemy z ochroną twórczości wygenerowanej przez AI – kto jest autorem?
Sprawa treści wytworzonych wyłącznie przez sztuczną inteligencję jest obecnie dość jasna – żadna z nich nie jest obejmowana prawem autorskim, gdyż nie jest ona utworem, ponieważ nie została stworzona przez człowieka. Zgodnie z prawem autorskim ochronie podlega tylko sposób wyrażenia, wszystkie jego formy, ale nie są nią objęte odkrycia, idee czy zasady działania (jak np. idea przeglądarki internetowej czy edytora tekstu). W wypadku programu komputerowego sposobem wyrażania będzie stworzony kod czy też firmware. Ponadto programista musi posiadać swobodę twórczą, a stworzony przez niego program ma mieć indywidualny charakter.
Aspektem, z którym z pewnością zmagają się firmy, jest o wiele częstsze przypadki, gdy ten udział narzędzi AI w powstawaniu wytworu pracownika nie jest tak łatwy do rozgraniczenia. To czy wytworzony przez programistę kod, przy pomocy narzędzia AI, jest utworem i posiada prawa autorskie jest zależny od wielu rzeczy, w pierwszej kolejności stopnia udziału człowieka w tworzeniu go. W wątpliwych sytuacjach zdecydowanie warto poradzić się prawnika IT.
Odpowiedzialność firmy przy wykorzystaniu chronionych danych do trenowania AI
Odpowiedzialność firmy za wykorzystanie chronionych danych po dodaniu ich do narzędzia AI rozbija się właściwie o dwie kwestie. Po pierwsze podstawową różnicą jest, posługując się przykładem tworzenia oprogramowania komputerowego, sytuacja, gdy informatyk „wrzuca” jako prompt swój własny fragment kodu, a czym innym będzie, kiedy pracuje on nad kodem należącym do klienta. Dodanie kodu należącego do klienta z pewnością będzie bardziej ryzykowne i tutaj duże znaczenie ma drugi aspekt, jaki należy wziąć pod uwagę, a mianowicie jakiej wersji narzędzi AI używamy w firmie. Korzystanie z podstawowych wersji ChatGPT czy też Copilot wiąże się z dużym ryzykiem, że narzędzie AI wykorzysta wrzucane prompty do szkolenia maszynowego. W regulaminach obydwu narzędzi trudno znaleźć konkretne informacje jak wykorzystują one lub tez właśnie nie wykorzystują „wrzucane” dane.
Firma, aby uniknąć wykorzystania chronionych danych do trenowania maszynowego narzędzia AI powinna zaopatrzyć się w płatne, wyższe wersje programu, które działają w pewnym sensie w zamkniętym środowisku. Należy też odpowiednio przeszkolić pracowników, żeby nie używali do działań zawodowych np. prywatnych kont ChatGPT. Przedsiębiorca będzie odpowiedzialny za należyte weryfikowanie pochodzenia wykorzystywanych danych, licencji narzędzi AI, monitorowaniu treści wychodzących z firmy oraz odpowiedniego przeszkolenia pracowników z zasad korzystania z AI.
Jak Rozporządzenie o sztucznej inteligencji, czyli AI Act wpływa na firmy?
Rozporządzenie AI Act zaczęło powoli wchodzić od lutego 2025 r. Stopniowość wprowadzania przepisów wiąże się z ich mnogością, obszernością i stopniem skomplikowania samego aktu, a poza tym z faktem, że do przepisów krajów członkowskich powinny być wprowadzane te ustanawiające system nadzoru nad rynkiem oraz kary dla podmiotów, które będą korzystać ze sztucznej inteligencji. W Polsce realizacja projektu ustawy o systemach sztucznej inteligencji będzie prawie na pewno opóźniona, a powinna być wprowadzona do 2 sierpnia 2025 r.
Brak przepisów krajowych może w jakimś stopniu utrudnić egzekwowanie niektórych przepisów AI Act-u, jednak wszystkie przedsiębiorstwa, które używają narzędzi AI powinny starać się dostosowywać je do obowiązujące prawa, monitorować i dokumentować funkcjonowanie narzędzi w firmie oraz śledzić rozwój samej technologii. 2 sierpnia 2025 r. wchodzi kolejny etap wdrażania rozporządzenia do krajów członkowskich, który będzie dotyczył, między innymi, modeli AI ogólnego przeznaczenia (np. ChatGPT, Copilot, Google Gemini).
Firmy używające narzędzi AI powinny również spełniać obowiązki informacyjne wobec użytkownikom, a więc:
informować ich o tym, że mają kontakt ze sztuczna inteligencją;
poinformować o wykorzystaniu i przetwarzaniu wprowadzanych danych;
powinni również wdrożyć niezbędne procesy zgodności;
oznaczyć wygenerowane treści.
Należy pamiętać, że za brak wdrożenia odpowiednich procedur będą mogły grozić kary administracyjne, które będą nakładane na przedsiębiorstwa.
źródło: https://paluckiszkutnik.pl/licencja-i-umowa-o-przeniesienie-autorskiego-prawa-majatkowego/