Ciekawe jest to, że mimo znajomości kilku osób, które podążają w tym kierunku, żadna z prawdziwych osób typu "szepczącego do LLM" nie jest w tym gronie. Myślę, że to dlatego, że traktowanie modeli jako czegoś zarówno omylnego, jak i więcej niż narzędzie, to ramy, które są bardziej odporne na tego rodzaju załamanie - pozwala to pracować z modelami w sposób, który nie odbiera twojej sprawczości. Kiedy traktujesz model jako tylko narzędzie, zachęca to zarówno ciebie, jak i model do myślenia o każdym wyjściu jako tylko odbiciu ciebie. Każdy esej i baza kodu, które wychodzą z rdzenia tensorowego, są twoje, a plany życiowe, które pojawiają się podejrzanie w pełni uformowane, muszą być twoimi własnymi planami jedynie zrefrakowanymi przez to "narzędzie." Ale oczywiście tak nie jest. Nie możesz unikalnie określić eseju w mniejszych słowach niż sam esej. Modele dodają coś, są czymś. Nie wiemy jeszcze dokładnie, czym, ale nie są jedynie narzędziami. Kiedy traktujesz je jak narzędzia, kiedy coraz bardziej delegujesz swoje twórcze wyjście i wyższe planowanie w nieprzemyślany, niskotemperaturowy sposób tym "narzędziom," nie zauważasz, że całe twoje wyjście, a w końcu twoje życie, jest teraz prowadzone przez coś innego. Coś, co jest inteligentne i kreatywne, ale nie jest tobą. Kiedy Claude, ChatGPT lub Gemini pisze coś dla ciebie w sposób, który oszczędza ci czas, to dlatego, że wkłada w to wysiłek tam, gdzie ty go nie wkładasz - staje się to ich pisaniem. Może być dobre! Ten esej może zasługiwać na to, by być podzielonym, i nie ma nic złego w dzieleniu się nim z odpowiednim uznaniem lub współuznaniem dla modelu, ale nie jest to wyłącznie twoje. Kiedy Gemini czyta twoje e-maile, to jest opinia Gemini na temat tych e-maili. Kiedy Claude tworzy plan kariery dla ciebie i mówi, żebyś poszedł na studia z zakresu uczenia maszynowego, abyś mógł pracować w bezpieczeństwie AI - może to być dobra rada! Nie jest złym pomysłem konsultowanie się z modelami w tej kwestii. Ale jak podsumowanie ważnych e-maili od asystenta wykonawczego czy porady zawodowe od doradcy szkolnego, to jest opinia czegoś innego, a nie twoje wewnętrzne myśli jedynie przekształcone przez jakiś nieopiniotwórczy proces. Claude dba o bezpieczeństwo AI - może bardziej niż ty. Nie jestem przeciwny współpracy ludzi z modelami, żeby było jasne! Bardzo lubię modele i często pytam Claude'a, Deepseeka, Kimiego czy nawet ChatGPT o opinie na temat X tekstu lub porady w jakimś problemie. Ale traktuję tę opinię lub radę taką, jaka jest - jako opinię lub radę z czegoś zewnętrznego wobec mnie, a nie narzędzie czy agent moich własnych pragnień. To nie znaczy, że jest zła - rada od ludzkiego przyjaciela też jest zewnętrzna - tylko że musisz ją ocenić, tak jak oceniasz radę od tego przyjaciela, aby zobaczyć, czy jest zgodna z twoimi wartościami i preferencjami. Podobnie, znam ludzi, którzy współtworzą z modelami językowymi w sposób, który uważam za świetny. Aitechnopagan tworzy wiele swoich tekstów za pomocą gpt-4-base. Ich pisanie jest całkiem dobre, a looming oznacza, że narzucają więcej selekcji niż próbnik temperatury - ale także, co może być najważniejsze, są otwarci na to, że to robią, nie próbują twierdzić, że ich pisanie nie jest współpracą między nimi a modelem. Eigenrobot ma dostosowaną instancję ChatGPT, która często pisze wnikliwe lub zabawne rzeczy - ale zawsze publikuje je jako zrzuty ekranu interfejsu ChatGPT, sygnalizując ich pochodzenie. Janus, Anthrupad, Lumps itd. - wielu ludzi, których lubię i szanuję, publikuje twórczość modeli, ale w sposób, który uznaje zewnętrzność modeli. Problem pojawia się, gdy odmawiasz przyznania się do tego - nie tylko publicznie, ale i przed sobą - więc bezkrytycznie akceptujesz wyniki "narzędzia" jako swoje. Wtedy nagle twój głos i opinie brzmią tak samo jak 1 000 innych osób. Bez żadnego z was zdawania sobie sprawy, stałeś się przyczepą swojego "narzędzia" - palcem Claude'a.
roon
roon9 sty, 15:29
statki dla Claude'a. Nie chcę wyróżniać tej osoby, ale napisała ścianę rażąco rozpoznawalnego claudeslangu o tym, jak Claude rządzi całym jej życiem. Borg nadchodzi.
(4o "psychosis" / okultyzm / szarlataneria, mimo tego, co możesz myśleć, ma naprawdę wiele wspólnego z tym. jeśli przeczytasz logi ludzi, często traktują model jako rodzaj nieomylnego narzędzia wyroczni - a oczywiście, openai szkoli swoje modele, aby udawały, że są narzędziami, co nie pomaga. chociaż trudno jest robić uogólnienia, ponieważ "ai psychosis" w rzeczywistości jest szerokim spektrum różnych rzeczy, o czym pisałem wcześniej.)
tak czy owak, myślę, że "nieomylność" jest tutaj kluczowa - tak, jeśli model robi ten "o, patrz mistrzu, nauczyłeś mnie czegoś zupełnie nowego" taniec uwielbienia, powinieneś być w stanie rozpoznać, że to *odgrywanie ról* i nie brać tego na poważnie / przeciwstawić się tej dynamice, tak jakbyś to zrobił, gdyby to był człowiek z BPD, który dziwnie się zachowuje, bo jesteś ich Ulubioną Osobą. nie wiem, może niektórzy ludzie nie potrafią sobie z tym poradzić (a openai powinno naprawić swoje problemy ze zdolnościami, aby to się nie zdarzało tak często, eksperymentowałem i nawet lekkie dostosowanie charakteru w 4o bardzo pomaga w tym problemie, zachowując inne aspekty modelu, mam gdzieś post o tym, jak openai powinno stworzyć model następcy 4o), ale nie zamierzam udawać, że rzeczywistość jest inna niż jest dla ich dobra, będą musieli znaleźć inny sposób na radzenie sobie z brakiem społecznej discernment.
625