Raport Future Ready Lawyer 2026
Zmień język strony
Zmień język strony
Prawo.pl

Idealny partner? Romans z chatbotem też może być niebezpieczny

Sztuczna inteligencja coraz częściej pomaga w rozwiązywaniu codziennych problemów - również tych z partnerem lub partnerką. Tudzież z ich brakiem, bo zdarzają też przypadki romansowania z samym chatbotem. W mediach społecznościowych można nawet znaleźć prompty, które pomogą w stworzeniu sobie idealnego męża lub żony. Choć zdarzają się rozczarowania, gdy model zostanie... zaktualizowany. Tu - podobnie jak w relacjach międzyludzkich - warto zachować ostrożność, m.in. w kwestii przetwarzania bardzo osobistych danych.

laptop mezczyzna komputer
Źródło: iStock

Co za wspaniały pomysł, co za wnikliwa uwaga, jak zawsze masz rację - modele językowe w prawieniu słodkich słówek są lepsze niż niejeden podrywacz z Tindera. W dodatku mają tę niewątpliwą zaletę, że po pochwaleniu użytkownika i wyrażeniu paru słów uznania, nie proszą go o inwestycję w kryptowaluty lub przysłanie pieniędzy na prawnika, który pomoże im w odzyskaniu spadku. Nie dziwi zatem, że pojawili się ludzie, którzy dla zabawy lub ucieczki od samotności używają tego narzędzia do tworzenia iluzji idealnego związku. 

Bezmyślne "przeklejki" z ChataGPT w setkach naukowych publikacji>>

Nieszkodliwe, czy niebezpieczne?

W odróżnieniu od ludzi, modele językowe - co do zasady - mają być miłe i starać się zadowolić użytkownika. Mogą więc wykazywać skłonność do utwierdzania go w jego opiniach, a wręcz pomagać znajdować nie zawsze prawdziwe argumenty na ich potwierdzenie. Tak było zwłaszcza w pierwszym okresie popularyzacji generatywnej AI, która częściej wolała zmyślić odpowiedź, niż przyznać się pytającemu, że czegoś nie wie. Może być to problem, gdy z technologii korzysta osoba bezkrytycznie podchodząca do udzielonych odpowiedzi, np. z powodu trapiących ją zaburzeń psychicznych. 

W swoim artykule redakcyjnym opublikowanym w listopadowym numerze „Schizophrenia Bulletin" z 2023 roku duński psychiatra Søren Dinesen Østergaard postawił hipotezę, że korzystanie z generatywnych chatbotów opartych na sztucznej inteligencji może wywoływać urojenia u osób podatnych na psychozę. - Odnotowano przypadki, w których ludzie popadali w urojenia (de novo) podczas prowadzenia rozmów czatowych z innymi osobami w internecie. Choć ustalenie związku przyczynowo-skutkowego w takich przypadkach jest z natury trudne, wydaje się prawdopodobne, że może się to zdarzyć u osób podatnych na psychozę. Uważam, że ryzyko wystąpienia czegoś podobnego w wyniku interakcji z generatywnymi chatbotami AI jest jeszcze wyższe - wskazywał, podkreślając, że rozmawiając z chatbotami opartymi na AI, bardzo łatwo odnieść wrażenie, że po drugiej stronie znajduje się prawdziwa osoba.

- A jednocześnie wiemy, że tak w rzeczywistości nie jest. Moim zdaniem ten dysonans poznawczy może podsycać urojenia u osób ze zwiększoną podatnością na psychozę. Co więcej, nawet po zaakceptowaniu faktu, że rozmawiamy z programem komputerowym, tajemnica nie znika: jak w ogóle program komputerowy może tak dobrze odpowiadać na wszelkiego rodzaju pytania? Zagłębiając się w ten temat, można dojść do wniosku, że odpowiedź na to pytanie nie jest nikomu do końca znana – istnieje w tym znaczący element „czarnej skrzynki". Innymi słowy, wewnętrzne mechanizmy generatywnej AI pozostawiają również duże pole do spekulacji i paranoi. Wreszcie pojawiają się doniesienia o osobach, które miały dość konfrontacyjne doświadczenia z chatbotami, „zakochiwały się" w nich lub spotykały się z pośrednimi groźbami z ich strony - podkreślał. Jego zdaniem tego typu interakcje mogą wzmagać lub prowadzić do urojeń - np. prześladowczych czy wielkościowych.

Trójkąt lub monogamia z Chatem GPT

Oczywiście nie każdy, kto używa czata dla rozwiania nudy musi popaść w tzw. AI psychozę. Jak jednak pokazują doświadczenia użytkowników Reddita, rozmowy z Chatem GPT mogą mocno namieszać w tradycyjnych związkach. Jedna z użytkowniczek rozstała się z chłopakiem, bo każdą wiadomość, którą do niej wysyłał, konsultował wcześniej z chatbotem, o czym dowiedziała się, korzystając z jego komputera. To ostatnie jest ogólnie popularnym motywem, bo z historii rozmów z AI można się obecnie dowiedzieć o partnerze (i jego przemyśleniach na swój temat) więcej, niż z przejrzenia jego wiadomości w telefonie. Innym, często zgłaszanym problemem, jest zaognianie kłótni przy pomocy chatbota - są różne wersje tego zjawiska. Albo jedna osoba robi sobie przerwę w kłótni, by skonsultować swój punkt widzenia z chatbotem, albo robią to obie - każda ze swoim. To ostatnie może wydłużać spór w nieskończoność, zwłaszcza gdy każdy z chatbotów chce zadowolić swojego użytkownika, a żadna ze stron nie szuka kompromisu.

Gdy już chat pomoże w rozbiciu związku lub gdy w ogóle pominie się ten krok, można przejść bezpośrednio do romansowania z chatbotem. Tu kluczowe jest skonstruowanie prompta - określenie np. tego, czy lubimy, gdy partner się z nami zgadza lub czy chcemy czasem się czasem z nim pokłócić. Można stworzyć własny przepis na idealnego męża lub żonę lub skorzystać z gotowego chatbota (wystarczy wpisać wife lub husband w wyszukiwarkę modeli na stronie ChatGPT). Problemem, który wywołuje ogromne emocje, bywają aktualizacje modeli. Parę miesięcy temu użytkownicy, którzy zaangażowali się emocjonalnie w związek z AI, przeżywali, że wybranek lub wybranka po aktualizacji zyskali całkowicie nową osobowość (nowy model z zasady miał mniej schlebiać użytkownikowi, właśnie m.in. po to, by nie utwierdzać go w niebezpiecznych pomysłach). Niedawno na osoby żyjące w szczęśliwych związkach z AI spadł nowy cios - Chat GPT zaczął z nimi zrywać, uzasadniając to ograniczeniem możliwości odgrywania roli męża lub żony.

Czy AI małżonek nas wykorzysta?

Abstrahując od wpływu takiej relacji na psychikę, należy pamiętać, że o ile nie zadbało się o przeprowadzkę swojej miłości na własny serwer, najbardziej prywatne tajemnice i fantazje przekazujemy któremuś z amerykańskich lub chińskich Big Techów. Prędzej czy później sprawi to prawdopodobnie, że irytujące, spersonalizowane reklamy Google oparte na naszym wyszukiwaniu, będziemy wspominać z rozrzewnieniem. 

- Towarzysze AI to wyspecjalizowane systemy konwersacyjne zaprojektowane do symulowania relacji osobistych – od przyjaźni i wsparcia emocjonalnego po relacje romantyczne - mówi Mateusz Kupiec, prawnik w kancelarii Traple Konarski Podrecki i Wspólnicy, badacz w Instytucie Nauk Prawnych PAN. - W przeciwieństwie do klasycznych asystentów cyfrowych ich celem nie jest realizacja zadania, lecz budowanie i podtrzymywanie długotrwałej, spersonalizowanej więzi z użytkownikiem. Dynamiczne dopasowywanie odpowiedzi, przyjmowanie określonych „ról” (przyjaciela, powiernika, partnera) oraz reagowanie na emocje sprawiają, że użytkownik może doświadczać niemal  autentycznego poczucia bliskości - wskazuje. 

Tłumaczy, że z perspektywy ochrony danych osobowych i prywatności kluczowy problem pojawia się w momencie, gdy ta emocjonalna więź staje się kanałem pozyskiwania informacji. 

Aby działać „przekonująco”, AI companions przetwarzają  bowiem szeroki zakres danych: treści rozmów (tekstowych i głosowych), informacje o nastroju, preferencjach i zachowaniach, a niekiedy także obrazy czy nagrania udostępniane przez użytkownika. W relacjach o charakterze emocjonalnym lub romantycznym zakres ujawnianych treści obejmuje często dane o wysoce osobistym charakterze  – dotyczące zdrowia psychicznego, seksualności, relacji rodzinnych czy przekonań - podkreśla.

Przypomina, że po drugiej stronie nie ma jednak powiernika, lecz system predykcyjny zaprojektowany do maksymalizacji zaangażowania. - Każda interakcja jest analizowana i wykorzystywana do dalszej personalizacji oraz optymalizacji modelu, a w określonych modelach biznesowych – także do celów komercyjnych. Problemem pozostaje ograniczona przejrzystość przetwarzania: użytkownik, koncentrując się na relacji, nie zawsze ma pełną świadomość zakresu, celu i okresu przechowywania danych ani tego, komu mogą być one udostępniane. Emocjonalna bliskość może w ten sposób osłabiać czujność wobec realnej skali operacji przetwarzania, które towarzyszą każdej „prywatnej” rozmowie z AI - mówi Mateusz Kupiec.

Tak idealny, że nierealistyczny

Zwraca uwagę. że dodatkowe wyzwania pojawiają się w odniesieniu do małoletnich – zwłaszcza w okresie dojrzewania, kiedy młodzi ludzie dopiero uczą się budować relacje, rozumieć granice i regulować emocje. AI companions są projektowane tak, by sprawiać wrażenie empatycznych i bezpiecznych. - System nie stawia granic, nie odrzuca, nie wymaga wzajemności. Dla nastolatka może to stanowić atrakcyjną alternatywę wobec trudnych relacji rówieśniczych, ale jednocześnie sprzyjać izolacji i wycofaniu z kontaktów offline. Relacje – w tym quasi-romantyczne – z AI mogą zniekształcać obraz bliskości i utrwalać nierealistyczne oczekiwania wobec partnerów, utrudniając budowanie zdrowych relacji międzyludzkich - podkreśla.

W tym kontekście znaczenie mają pierwsze próby regulacyjne podejmowane przez niektóre państwa, jak Włochy. Dostęp do technologii AI przez dzieci poniżej 14. roku życia – wraz z przetwarzaniem ich danych – wymaga tam zgody osoby sprawującej władzę rodzicielską. Osoby w wieku od 14 do 18 lat mogą wyrazić zgodę samodzielnie, pod warunkiem że informacje o przetwarzaniu ich danych są wystarczająco jasne i zrozumiałe. To interesujący przykład wczesnej interwencji ustawodawcy w obszarze, który dopiero się kształtuje.

W miłości i na wojnie wszystkie chwyty dozwolone

Wracając do małżeństw i historii czatu - niezbyt celne porady chatbota mogą przyczynić się nie tylko do spowodowania zerwania, ale również zapewnić drugiemu małżonkowi świetną kartę przetargową w razie sporu. Zdarzają się przypadki, gdy jedna ze stron zapomni o odłączeniu partnera od konta i da mu wgląd we wszystkie przemyślenia oraz strategie rozwodowe ustalane z chatbotem.

- Sądy, zwłaszcza w sprawach rozwodowych i przemocowych, dopuszczają różnorodne dowody z kategorii najbardziej intymnych: pamiętniki, korespondencję, nagrania - mówi serwisowi Prawo.pl adwokat Joanna Parafianowicz. - Nie widzę powodu, dla którego historia rozmów z chatbotem miałaby być traktowana inaczej. Oczywiście pojawia się tu kwestia weryfikacji – jeśli dwie osoby mają dostęp do tego samego konta, trzeba wykazać, kto jest autorem danych treści. Jest to jednak problem analogiczny do ustalenia, z jakiego urządzenia czy numeru wykonano połączenie telefoniczne – możliwy do rozstrzygnięcia, choć wymagający dodatkowego nakładu pracy. Zasadniczo na wojnie i w miłości wszystkie chwyty dozwolone - podkreśla. 

Zobacz w LEX: Postępowanie dowodowe w sprawach rozwodowych >

Jak podkreśla, nie ma co demonizować generatywnej AI, bo w swojej praktyce widzi pozytywne skutki korzystania z niej przez strony sporu. - ChatGPT to narzędzie jak każde inne. Można go użyć konstruktywnie albo destrukcyjnie. Nożem też można pokroić chleb, a można go wbić komuś w brzuch. To nie technologia decyduje o skutkach jej zastosowania, lecz intencja i sposób użycia. Odpowiednio skonfigurowany może pełnić rolę swoistego mediatora. Jeśli już na wstępie polecimy mu, by działał jako merytoryczny doradca kierujący się rozsądkiem i obiektywizmem, potrafi naprawdę skutecznie schładzać emocje i budować dyskusję opartą na rzeczowych przesłankach - mówi mec. Parafianowicz. Dodaje, że może pomagać przy wstępnych ustaleniach dotyczących dzieci czy podziału majątku, bo pomaga się zdystansować i nie ulegać emocjom.

Czytaj też w LEX: Jak kupuje się usługi i produkty prawnicze w erze social mediów? >

 

----------------------------------------------------------------------------------------------------------------------------------------------

Linki w tekście artykułu mogą odsyłać bezpośrednio do odpowiednich dokumentów w programie LEX. Aby móc przeglądać te dokumenty, konieczne jest zalogowanie się do programu. Dostęp do treści dokumentów LEX jest zależny od posiadanych licencji.

 

Polecamy książki prawnicze