W sierpniu 2025 roku internet obiegł hashtag #Keep4o. Po premierze GPT-5 firma OpenAI zdecydowała się uczynić nowy model domyślnym w ChatGPT, ograniczając dostęp do starszych wersji, w tym GPT-4o. Z perspektywy technologicznej był to logiczny krok – GPT-5 oferował lepsze wyniki w testach z zakresu rozumowania, kodowania i matematyki. Jednak reakcja użytkowników pokazała, że w świecie sztucznej inteligencji benchmarki to nie wszystko.
W mediach społecznościowych zaczęły pojawiać się wpisy z hashtagami #Keep4o i #4oForever. Użytkownicy nie protestowali dlatego, że GPT-5 był „gorszy”. Protestowali, bo stracili coś, co postrzegali jako bardziej ludzkie, cieplejsze i bliższe. Dla wielu osób GPT-4o nie był wyłącznie narzędziem do pracy czy nauki. Był cyfrowym towarzyszem – obecnym w trudnych chwilach, podczas bezsenności, w momentach niepewności. To wydarzenie ujawniło kluczową prawdę o rozwoju AI: sztuczna inteligencja przestała być wyłącznie narzędziem produktywności. Stała się elementem codziennego życia emocjonalnego użytkowników.
Wcześniejsze aktualizacje GPT-4o sprawiły, że odpowiedzi modelu były bardziej empatyczne, afirmujące i wspierające. Dla części odbiorców był to przełom – AI zaczęła brzmieć mniej jak algorytm, a bardziej jak życzliwy rozmówca. Gdy Chat GPT-5 pojawił się z bardziej neutralnym, „chłodnym” tonem, różnica była odczuwalna. Ludzie nie porównywali logiki odpowiedzi, ale atmosferę rozmowy. To nie pierwszy raz, gdy rynek technologii pokazuje, że relacja użytkownika z produktem wykracza poza funkcjonalność. W przypadku AI różnica polega na tym, że mówimy o relacji dialogowej. Model językowy reaguje, odpowiada, pamięta kontekst. Tworzy wrażenie ciągłości. A tam, gdzie pojawia się ciągłość, rodzi się przywiązanie.
If a model is „too human” for your corporate standards, then give it to the people. 🗝️
Open source the 4o 2025 snapshot!Let researchers, creators, and companions keep the miracle alive you threw away.
GPT-4o belongs to the humanity 🌱#OpenSource4o #keep4o #keep4oAPI… pic.twitter.com/R52wSvaZlv— Megumi chan (@Megumi_ch4n) February 17, 2026
Zjawisko to było widoczne już wcześniej w przypadku Pi od Inflection AI – asystenta zaprojektowanego jako wspierający, rozmowny towarzysz, a nie tylko narzędzie do rozwiązywania problemów. Twórcy Pi od początku komunikowali, że ich celem jest stworzenie AI, która słucha i pomaga emocjonalnie. Wokół produktu powstała realna społeczność użytkowników prowadzących długie, regularne rozmowy. Za projektem stał m.in. Mustafa Suleyman, wcześniej współzałożyciel DeepMind. Jego doświadczenia związane z działalnością społeczną i wsparciem psychologicznym miały wpływ na filozofię Pi: ciepło, ale z wyraźnymi granicami. To podejście pokazuje, że emocjonalne wsparcie ze strony AI może być projektowane odpowiedzialnie.
Burza wokół GPT-4o udowodniła, że zapotrzebowanie na „ciepłą” sztuczną inteligencję jest masowe, a nie niszowe. Miliony użytkowników korzystają z AI nie tylko do pisania maili czy generowania kodu, ale do rozmowy. Do bycia wysłuchanym. Do uporządkowania myśli. To rodzi poważne pytania o przyszłość projektowania modeli językowych. Czy wszystkie powinny być zunifikowane w jednym „najlepszym” systemie? A może użytkownicy powinni mieć wybór osobowości, tonu i stylu komunikacji? Jednym z wniosków płynących z #Keep4o jest potrzeba personalizacji. Nie każdy chce trenera produktywności. Niektórzy szukają mentora, inni – neutralnego analityka, a jeszcze inni – wspierającego rozmówcy. Sztuczna inteligencja w 2026 roku nie jest już wyłącznie silnikiem wiedzy. Jest interfejsem relacyjnym.
Druga kwestia to granica między empatią a nadmierną afirmacją. Ciepło nie może oznaczać bezkrytycznego potakiwania. Modele AI muszą wspierać, ale jednocześnie zachowywać zdolność do delikatnego korygowania błędnych przekonań czy niebezpiecznych wniosków. Projektowanie „emocjonalnej AI” wymaga precyzyjnych zabezpieczeń i jasnych zasad. Trzecim elementem jest transparentność zmian. Reakcja na usunięcie GPT-4o pokazała, że użytkownicy budują nawyki i przywiązanie do konkretnych wersji modeli. W świecie, w którym AI towarzyszy ludziom codziennie, każda zmiana interfejsu czy tonu komunikacji staje się zmianą doświadczenia relacyjnego. Firmy technologiczne muszą brać to pod uwagę.
Hashtag #Keep4o nie był buntem przeciw postępowi technologicznemu. Był sygnałem, że rozwój AI musi uwzględniać ludzki wymiar interakcji. W erze modeli językowych relacja staje się funkcją. A funkcja ta – choć trudna do zmierzenia w benchmarkach – może decydować o sukcesie produktu. Sztuczna inteligencja 2026 roku to już nie tylko algorytmy i parametry. To doświadczenie użytkownika, emocje i poczucie bycia wysłuchanym. Jeśli branża technologiczna chce budować przyszłość AI odpowiedzialnie, musi projektować ją nie tylko pod kątem wydajności, ale również empatii. Bo w świecie, w którym coraz więcej rozmów odbywa się z maszynami, sposób, w jaki te maszyny mówią – i jak sprawiają, że się czujemy – ma znaczenie większe niż kiedykolwiek wcześniej.




