Projektowanie zachowań zamiast ślepego wdrażania: jak zwiększyć szanse na sukces inwestycji.
Różnica między oczekiwanymi a rzeczywistymi rezultatami rzadko wynika z błędów technicznych. Częściej z ignorowania ludzkich zachowań.
Przez lata na konferencjach biznesowych i w raportach branżowych powtarzano jedną obietnicę: Sztuczna inteligencja odmieni świat pracy. Firmy zaczęły inwestować w nią coraz śmielej, przekonane, że dzięki niej staną się bardziej konkurencyjne, szybsze i lepiej zorganizowane.A jednak rzeczywistość okazała się znacznie bardziej złożona.
Badania MIT pokazują, że nawet 95% projektów AI nie przynosi oczekiwanych rezultatów, a globalny raport Boston Consulting Group wskazuje, że zaledwie jedna na cztery firmy widzi realny zwrot z inwestycji. Liderzy zaczęli więc zadawać pytanie, które coraz częściej wraca jak echo:„Dlaczego to nie działa, skoro technologia jest tak dobra?” Odpowiedź brzmi: bo wdrażamy rozwiązania technologiczne, bez projektowaniania ich. A co więcej - ignorujemy ludzkie zachowania.
Kiedy AI trafia do organizacji, zderza się z ludzką naturą
W większości firm wdrożenie AI wygląda podobnie: kupujemy narzędzie, konfigurujemy je, tworzymy instrukcje i liczymy, że ludzie zaczną z niego korzystać. W teorii brzmi to rozsądnie. W praktyce kończy się oporem, brakiem zaufania, omijaniem funkcji lub… całkowitym porzuceniem systemu.
Dlaczego tak się dzieje?
Bo człowiek nie jest maszyną, która przyjmuje nowe rozwiązania bez emocji i bez nawyków. Przeciwnie. Nasze myślenie jest pełne uprzedzeń i mechanizmów obronnych. Psychologia behawioralna od dziesięcioleci pokazuje, że kiedy mamy zmienić sposób pracy, kierują nami:
strach przed stratą (ważniejszy niż wizja korzyści),
preferencja dla starego, znanego sposobu działania,
brak zaufania do narzędzi, których nie rozumiemy,
tendencja do wyolbrzymiania pojedynczych błędów technologii.
Widzimy to w wielu branżach. Na przykład w medycynie lekarze często ignorowali kliniczne narzędzia wspierające decyzje. Nie dlatego, że miały słabe wyniki, ale dlatego, że… wyświetlane alerty zakłócały rutynę. Badacze zauważyli, że postrzegana strata czasu była silniejsza niż realny zysk dla pacjenta.
To jeden z wielu dowodów, że w AI najtrudniejsza nie jest inżynieria. Najtrudniejsza jest zmiana zachowań.
Ludzie nie ufają algorytmom i mają ku temu psychologiczne powody
W kilku kluczowych badaniach (m.in. Dietvorst, Simmons & Massey 2015) wykazano, że ludzie odrzucają algorytmy po zobaczeniu jednego błędu, choć te same osoby tolerują wiele błędów ludzkich. To zjawisko nazwano algorytmiczną awersją.
Inne badania pokazują, że użytkownicy bardziej ufają człowiekowi niż AI, nawet jeśli człowiek ma gorszą skuteczność. W jednym z eksperymentów pacjenci deklarowali, że lepiej rozumieją rozumowanie lekarza, choć w rzeczywistości… nie mieli do niego dostępu. AI była natomiast dla wielu z nich czarną skrzynką, więc z góry budziła niechęć.
Nic dziwnego, że pracownicy w firmach zachowują się podobnie.
Nieświadomie preferujemy ludzkie błędy od nieludzkiej dokładności.
Tam, gdzie firmy powinny widzieć ludzi, widzą technologię
W badaniu Foundry aż 71% CIO stwierdziło, że odpowiada za rozwój AI w firmie, ale tylko 32% uważało, że powinni kierować transformacją organizacyjną. To pokazuje fundamentalny problem:
AI jest traktowana jako projekt IT, a nie projekt zmiany nawyków i kultury pracy.
Co gorsza, nawet kiedy firmy zbierają opinie pracowników, zwykle robią to po fakcie, kiedy narzędzie już powstało, a możliwości jego modyfikacji są ograniczone. Wtedy wdrożenie przypomina bardziej kampanię marketingową niż proces wsłuchiwania się w potrzeby ludzi.
Gdzie zacząć, jeśli chcemy, żeby AI była naprawdę używana?
Nauki behawioralne podpowiadają, że wdrożenie AI ma sens tylko wtedy, gdy obejmuje trzy etapy:
1. Projektowanie: tworzenie narzędzia tak, jak myślą użytkownicy
Dobre rozwiązanie AI to nie tylko dokładność modelu i funkcje techniczne. To również:
sposób, w jaki wyświetlane są informacje,
intuicyjność działań,
poziom wysiłku, jaki musi włożyć użytkownik,
jego poczucie kontroli.
Badania Alter & Oppenheimer pokazały, że nawet tak drobna rzecz jak trudniejsza czcionka może wpływać na to, jak dokładnie czytamy tekst. To dowód, że behawioryści powinni siedzieć przy tym samym stole co projektanci i inżynierowie.
Kolejny przykład: gdyby firmy testowały narzędzia na bardziej zróżnicowanych użytkownikach, uniknęlibyśmy sytuacji, w której systemy rozpoznawania mowy mają dwa razy więcej błędów u jednych grup niż u innych (badanie z 2020 r.).
Projektowanie z perspektywy różnych ludzi jest fundamentem skutecznego wdrożenia.
2. Wdrożenie: budowanie zaufania, nie presji
Nie wystarczy „oddawać narzędzie do użytku”. Trzeba stworzyć warunki, w których użytkownik poczuje się bezpiecznie.
Badania w ochronie zdrowia pokazują ciekawą prawidłowość:
gdy lekarze otwarcie mówili pacjentom o ograniczeniach AI, ci… ufali jej bardziej. Transparentność okazała się skuteczniejsza niż marketingowe hasła o nieomylności technologii.
Podczas wdrażania warto więc:
wyjaśniać, jak działa model,
pokazywać, czym AI się myli i dlaczego,
podkreślać, że ma wspierać, a nie zastępować ludzi,
dać pracownikom poczucie wpływu.
AI staje się wtedy nie zagrożeniem, lecz partnerem.
3. Zarządzanie: liderzy muszą walczyć z własnymi uprzedzeniami
Zaskakujące, ale to liderzy (nie pracownicy ) częściej sabotują projekty AI, choć nieświadomie.
Dwóm błędom poznawczym ulegają szczególnie:
nadmierna pewność siebie („Nie potrzebujemy pilotażu, wiemy, że to zadziała”),
eskalacja zaangażowania („Skoro już wydaliśmy 2 mln, to dołóżmy jeszcze jeden projekt”).
To prowadzi do sytuacji, w której firmy trwają przy rozwiązaniach, których nikt nie używa.
Liderzy, którzy naprawdę chcą, by AI działała, muszą:
przyznać się do własnych uprzedzeń,
otoczyć się ekspertami od behawioralnego podejścia do zmiany,
regularnie mierzyć zaufanie i satysfakcję pracowników,
być gotowi na korektę kursu, a nawet zakończenie projektu.
AI działa tylko wtedy, gdy działa dla ludzi
Technologia sama w sobie nie gwarantuje sukcesu. Ostatecznie o tym, czy AI przyniesie wartość biznesową, decyduje to, jak człowiek ją widzi, rozumie, interpretuje i włącza w codzienną pracę.
Dlatego najskuteczniejsze podejście do AI to takie, które:
uwzględnia ludzkie błędy poznawcze,
przewiduje emocje, nawyki i reakcje,
buduje zaufanie, a nie strach,
angażuje użytkowników od samego początku,
stale uczy się na podstawie zachowań ludzi.
Sukces nie polega na tym, by stworzyć najbardziej zaawansowaną technologię. Sukces polega na stworzeniu technologii, która współpracuje z człowiekiem i z jego lękami, przyzwyczajeniami, ograniczeniami i potrzebami.
Designing behaviors instead of blindly implementing: how to increase the chances of investment success
Many organizations invest in AI with the hope of rapid transformation, only to discover that the real challenges begin after the technology is deployed. Understanding and designing for these behaviors is the missing link that determines whether an AI investment succeeds or quietly fails.
Designing behaviors instead of blindly implementing: how to increase the chances of investment success
For years, one promise has been repeated at business conferences and in industry reports: Artificial intelligence will transform the world of work. Companies began investing in it more and more boldly, convinced that it would make them more competitive, faster and better organized. And yet reality turned out to be much more complex.
MIT research shows that even 95% of AI projects do not deliver expected results, and a global Boston Consulting Group report indicates that only one in four companies sees a real return on investment. Leaders began asking a question that increasingly returns like an echo: “Why isn’t this working if the technology is so good?” The answer is: because we implement technological solutions without designing them. And moreover, we ignore human behavior.
When AI enters an organization, it collides with human nature
In most companies, AI implementation looks similar: we buy a tool, configure it, create instructions and expect people to start using it. In theory, that sounds reasonable. In practice, it ends with resistance, lack of trust, skipping features or even… completely abandoning the system.
Why does this happen?
Because a human is not a machine that adopts new solutions without emotions and without habits. On the contrary. Our thinking is full of biases and defensive mechanisms. Behavioral psychology has shown for decades that when we have to change the way we work, we are guided by:
fear of loss (more important than the vision of benefits),
preference for the old, familiar way of doing things,
lack of trust in tools we do not understand,
tendency to exaggerate single technological errors.
We see this in many industries. For example, in medicine, doctors often ignored clinical decision support tools. Not because the tools performed poorly, but because the alerts disrupted their routine. Researchers noticed that the perceived loss of time felt more significant than the real gains for the patient.
This is one of many pieces of evidence that in AI, engineering is not the hardest part. The hardest part is changing behavior.
People do not trust algorithms and have psychological reasons for it
In several key studies (including Dietvorst, Simmons & Massey 2015), it was shown that people reject algorithms after seeing a single mistake, even though they tolerate many human errors. This phenomenon was called algorithmic aversion.
Other studies show that users trust humans more than AI, even if humans perform worse. In one experiment, patients declared that they understood the doctor’s reasoning better, even though in reality… they did not have access to it. AI was, for many, a black box, and therefore triggered distrust.
No wonder employees in companies behave in a similar way.
We unconsciously prefer human errors over non-human accuracy.
Where companies should see people, they see technology
In the Foundry study, as many as 71% of CIOs said they were responsible for driving AI development in the company, but only 32% believed they should lead organizational transformation. This reveals a fundamental problem:
AI is treated as an IT project, not a project of changing habits and work culture.
What’s worse, even when companies collect employee feedback, they usually do it after the fact, when the tool is already built and the possibility of modifying it is limited. In such cases, the implementation resembles a marketing campaign rather than a process of listening to people’s needs.
Where to start if we want AI to actually be used
Behavioral sciences suggest that AI implementation makes sense only if it includes three stages:
1. Design: creating a tool the way users think
A good AI solution is not just about model accuracy and technical features. It is also about:
the way information is displayed
the intuitiveness of actions
the amount of effort the user must put in
their sense of control
Research by Alter and Oppenheimer showed that even such a small detail as a more difficult font can influence how accurately we read text. This is proof that behavioral scientists should sit at the same table as designers and engineers.
Another example: if companies tested tools on more diverse users, we would avoid situations in which speech recognition systems had twice as many errors for one group as for another (a 2020 study).
Designing from the perspective of different people is the foundation of effective implementation.
2. Implementation: building trust, not pressure
It is not enough to “release the tool for use”. It is necessary to create conditions in which the user feels safe.
Research in healthcare shows an interesting pattern:
when doctors openly told patients about AI limitations, patients trusted it more. Transparency proved more effective than marketing claims about technological infallibility.
During implementation, it is therefore worth:
explaining how the model works
showing where and why AI makes mistakes
emphasizing that it is meant to support, not replace people
giving employees a sense of influence
AI then becomes not a threat, but a partner.
3. Management: leaders must fight their own biases
Surprisingly, it is leaders (not employees) who more often sabotage AI projects, although unintentionally.
They are especially prone to two cognitive biases:
overconfidence (“We don’t need a pilot, we know this will work”)
escalation of commitment (“Since we already spent 2 million, let’s add another project”)
This leads to situations where companies continue with solutions that no one uses.
Leaders who truly want AI to work must:
admit their own biases
surround themselves with experts in behavioral approaches to change
regularly measure employee trust and satisfaction
be ready to adjust course or even end the project.
AI works only when it works for people
Technology alone does not guarantee success. Ultimately, whether AI brings business value depends on how a human sees it, understands it, interprets it and incorporates it into everyday work.
Therefore, the most effective approach to AI is one that:
takes human cognitive biases into account,
anticipates emotions, habits and reactions,
builds trust rather than fear,
engages users from the very beginning,
learns continuously from human behavior.
Success is not about creating the most advanced technology. Success is about creating technology that cooperates with the human being and with their fears, habits, limitations and needs.




