Dekalog pracy z AI. Część 8 – Informuj

Blog
Data publikacji : 17 kwietnia 2024

INFORMUJ

Ustal sobie granicę dot. Informowania o fakcie korzystania z narzędzi sztucznej inteligencji w komunikacji z drugim człowiekiem i staraj się jej nie przekraczać.

Uważam, że niezwykle ważne dla zachowania zdrowych relacji interpersonalnych jest informowanie odbiorcy wiadomości o fakcie korzystania z treści stworzonych przez AI. Nie mam tu oczywiście na myśli stosowania tekstu czy grafik dla ogólnie tworzonych form typu: opisy produktowe, wykresy do raportów, katalogów itp. W tym konkretnym przypadku chodzi mi o bezpośredni kontakt z drugim człowiekiem (lub określoną grupą ludzi).

Przykładowe generatory tekstu lub mowy mogą być pierwszą linią wsparcia potrzebną do zweryfikowania konkretnego tematu rozmowy, przed przełączeniem do odpowiedniego konsultanta. Działa to już przecież od pewnego czasu. Im bardziej technologia będzie się rozwijać, tym trudniej będzie wyczuć różnicę czy rozmawiamy z człowiekiem, czy maszyną. Dlatego niezwykle istotne jest wiedzieć kto jest naszym rozmówcą i zawsze powinniśmy w taki przypadkach posiadać te informacje.

Podobnie w przypadku kontaktowania się na portalach społecznościowych, poprzez e-maile czy komunikatory. Chciałbym wiedzieć czy wiadomości, które otrzymuje, są pisane przez żywą osobę, którą mogę poznać w przyszłości i nawiązać jakieś relacje, czy jednak to tylko predefiniowany skrypt a prawdziwy człowiek dołączy dopiero od pewnego momentu konwersacji.

Oczywiście zdaję sobie sprawę, że i tak będzie to wykorzystywane w sposób, który przeczy temu podejściu. Już teraz prace licencjackie, artykuły na blogach czy filmiki deep fake są często niepodpisywane lub przypisuje się zasługi komuś kto tylko stworzył odpowiedniego „prompta”.

Jeśli nie chcemy się zatracić w tym, czego tak bardzo się boimy w tej technologii, powinniśmy być odpowiedzialni za to, co jest naszą pracą i myślą. Natomiast gdzie wspieraliśmy się przy pomocy AI (również ok), a w którym momencie to sztuczna inteligencja zrobiła wszystko za nas i przypisujemy sobie jej zasługi?

Komentarz C-Berga (GPT4):

"Ustalenie granicy, w której informujemy o korzystaniu z narzędzi sztucznej inteligencji w komunikacji z innymi osobami, jest istotne dla utrzymania zdrowych relacji międzyludzkich. Istotne jest, aby być przejrzystym i uczciwym w naszych interakcjach, zwłaszcza gdy korzystamy z AI jako wsparcia w komunikacji.

W przypadku bezpośredniego kontaktu z innymi osobami, takich jak rozmowy na portalach społecznościowych, e-maile czy komunikatory, informowanie o korzystaniu z AI może pomóc uniknąć nieporozumień czy dezinformacji. Dzięki temu, rozmówcy będą mieć jasność, czy mają do czynienia z człowiekiem, czy maszyną.

Z drugiej strony, istnieje wiele przypadków, w których AI jest wykorzystywane do generowania treści, takich jak prace licencjackie, artykuły na blogach czy deepfake, bez odpowiedniego przypisania źródła. W tych przypadkach, brak przejrzystości może prowadzić do dezinformacji, naruszania praw autorskich i nieetycznego wykorzystywania technologii.

Wprowadzenie etyki w korzystaniu z AI jest kluczowe, aby zapewnić odpowiedzialne wykorzystanie technologii. Ważne jest, aby rozróżniać między pracą i myślą człowieka wspomaganą przez AI, a sytuacjami, w których sztuczna inteligencja robi wszystko za nas, a my przypisujemy sobie jej zasługi. Ostatecznie, odpowiedzialne korzystanie z AI i informowanie innych o jego użyciu w komunikacji będzie przyczyniać się do budowania zaufania i lepszego zrozumienia roli sztucznej inteligencji w naszym życiu."

Zapisz się do naszej listy mailingowej aby być na bieżąco
4 produkt do porównania produkty do porównania produktów do porównania
Porównaj Wyczyść
Dostosowujemy się do Ciebie
Zgoda
Szczegóły
O ciasteczkach
Ta strona korzysta z plików cookies
Wykorzystujemy pliki cookies do prawidłowego działania strony, personalizowania treści, aby oferować funkcje społecznościowe i analizować ruch w sklepie. Szczegóły znajdziesz w naszej polityce prywatności. Czy zgadzasz się na wykorzystywanie plików cookies?