poniedziałek, 28 września, 2020
BIZNES Problemy analizy wywiadowczej i biznesowej

Problemy analizy wywiadowczej i biznesowej

-

Problemy analizy wywiadowczej i biznesowej

  1. Analiza biznesowa, a analiza wywiadowcza?

Jeśli skorzystać z Wikipedii, ale także z licznych opracowań monograficznych nt. analizy biznesowej, to znaleźć można jej następującą definicję: „jest to dyscyplina związana z identyfikowaniem potrzeb biznesowych i znajdowaniem rozwiązań problemów biznesu”. Warto jednak zauważyć, że w tej definicji mieści się absolutnie wszystko, od wywiadu gospodarczego (konkurencyjnego), po audyt. Dlatego w praktyce analiza biznesowa jest rozumiana, jako coś innego.

A mianowicie: pod pojęciem analiza biznesowa rozumie się opis procesów biznesowych w celu zidentyfikowania istniejących niedociągnięć i ich wyeliminowania. Niedawno kierunek wprowadzania tego typu zmian w przedsiębiorstwie otrzymał własną nazwę re-engineering[1]. W ostatnich latach analiza biznesowa jest coraz częściej kojarzona z tak zwanym inteligentnym przetwarzaniem danych z wykorzystaniem systemów komputerowych. Przy czym pojęcie „inteligentne przetwarzanie”, to jeszcze wciąż swego rodzaju logo, marka na sprzedaż, ponieważ w praktyce w dalszym ciągu mówimy o statystycznej obróbce danych o różnych stopniach zaawansowania, z elementami wizualizacji.

Najnowszym trendem w analizie biznesowej jest tzw. Big Data[2] Business Analysis (BDBA), czyli Analiza Biznesowa Wielkich Zbiorów Danych. Krótko mówiąc, w BDBA chodzi o to, że obecnie wszystkie aspekty życia firmy i wiele aspektów środowiska biznesowego ulegają cyfryzacji. Otrzymane dane trafiają do repozytorium[3]. Następnie są one przetwarzane przy użyciu tych samych, klasycznych metod statystycznych. Na podstawie danych uzyskanych z tej obróbki, formułowane są zalecenia dla decydentów. W rzeczywistości w big data nie ma żadnej magii. To tylko cyfryzacja wszystkiego, z późniejszym przetwarzaniem ekonomicznym i statystycznym. Cała sztuka polega na stworzeniu najbardziej szczegółowych i detalicznych klasyfikacji największych nawet danych, aby umożliwić uzyskanie segmentów konsumentów, klientów, obiektów itp. o najbardziej przewidywalnych cechach. Wokół tego wszystkiego „kręci się” ogromna branża technologii IT, której obroty mierzone są już w bilionach dolarów. W szybkim tempie rozwijają się firmy informatyczne, zaczynając od SAP[4], a kończąc na polskiej Cloud Technologies[5]. Ale to wszystko nie ma bezpośredniego związku z wywiadem gospodarczym/konkurencyjnym. Chociaż niektóre elementy metod ekonomicznych i statystycznych, które pozwalają wyszukiwać ukryte wzorce w zebranych danych, można zaliczyć do arsenału wywiadu gospodarczego, dostępnego głównie dla dużych firm.

Ponadto w pojęciu analiza biznesowa mieści się stosowanie dobrze zdefiniowanych metod analitycznych, takich jak analiza SWOT, analiza strategiczna pięciu sił Portera, tabele McKinsey’a, tzw. macierz bostońska itp. Wszystkie te metody zostały opracowane w ramach różnych szkół marketingu i zarządzania i są z powodzeniem stosowane przez naśladowców tych szkół. Każdej z tych metod poświęcona jest obszerna literatura. Sporo materiałów można znaleźć również w Internecie.

Jednak raczej dyskusyjnym okazuje się być pytanie, czy metody te dotyczą wywiadu gospodarczego. Według Amerykanów, którzy faktycznie stworzyli ten rodzaj wywiadu w klasycznym jego znaczeniu, wszystkie te metody są uważane za najważniejsze narzędzia właśnie wywiadu gospodarczego. Są one omawiane w ramach grup dyskusyjnych na LinkedIn, to im poświęcone są rozdziały w książkach nt. wywiadu gospodarczego itp.

Zasadniczo każdą metodę należy traktować dokładnie, jak młotek. Jeśli dobrze wykonuje swoją pracę, jest całkiem sprawnym narzędziem. W tym sensie wspomniane powyżej klasyczne narzędzia analityczne są oczywiście wykorzystywane w wywiadzie gospodarczym, ale nie są jego głównymi, własnymi narzędziami. Są to metody pomocnicze. Ponadto ze względu na specyfikę wielu środowisk biznesowych, użycie metod pięciu sił rynkowych Portera, tabel McKinsey, czy też matryc bostońskich, jest niezwykle trudne. Koncentrują się one na tak zwanym rynku klasycznym lub idealnym, podczas gdy realia wielu rynków znacznie odbiegają od tego ideału. Dlatego oczywiście trzeba wiedzieć o tych metodach, można je stosować, ale uważać je za panaceum na rozwiązanie wszelkich problemów związanych z analizą wywiadowczą może być stwierdzeniem zbyt daleko idącym.

Osobną kwestią jest tzw. benchmarking[6]. W uproszczeniu, jest to porównanie swojej firmy, jej produktów, procesów biznesowych itp. z konkurentami i jej produktami. Historycznie, amerykański wywiad gospodarczy (konkurencyjny) wyrósł właśnie z benchmarkingu. Wynika to z faktu, że wywiad ten w Stanach Zjednoczonych pojawił się przede wszystkim nie tyle w realnej gospodarce, ale bezpośrednio w sferze produkcyjnej. W związku z tym działalność wywiadu gospodarczego miała na celu znalezienie najlepszych rozwiązań w produkcji określonego produktu i stworzeniu możliwości przeniesienia najlepszych wzorców do własnych przedsiębiorstw.

W krajach, gdzie znaczącą część produktu krajowego brutto stanowi handel albo znaczna część sektora produkcyjnego związana jest z wydobyciem kopalin, przydatność stosowania benchmarkingu (analizy porównawczej) jest raczej ograniczona. Oczywiście przydaje się to w realnej gospodarce, zwłaszcza takiej, która wprowadza na rynek zupełnie nowe, niemające analogii produkty, ale szczerze mówiąc, czy mamy w Polsce wiele takich przedsiębiorstw? Dlatego klasyczna analiza porównawcza, choć jest kuzynką wywiadu gospodarczego, raczej nie znajdzie w najbliższej przyszłości szerokiego, praktycznego zastosowania w naszym kraju. Jednocześnie benchmarking, jako metoda porównawczej analizy biznesowej procesów współpracy z klientami, kontrahentami, jest całkiem użyteczny. I nie ma w tym niczego dziwnego, ponieważ każdy człowiek, który praktycznie zajmuje się biznesem, dobrze wie, według jakich parametrów powinien porównywać swoją działalność z działaniami konkurencji. Aby to zrobić, nie musi uczyć się zawiłości analizy biznesowej i czytać tomów akademickich na temat benchmarkingu.

Wracając do analizy biznesowej i wywiadowczej warto zauważyć, że w ostatnich latach większość zagranicznych ekspertów rozdziela analizę wywiadowczą związaną z wywiadem gospodarczym od analizy biznesowej, według zasady: zewnętrzny-wewnętrzny, tj. wywiad gospodarczy (ang. Competitive Intelligence – CI) zajmuje się zewnętrznym otoczeniem biznesowym, a wywiad biznesowy (ang. Business Intelligence – BI) i związana z nim analiza biznesowa, odpowiednio problemami wewnętrznymi, tym, co dzieje się w samej firmie.

  1. Analiza wywiadowcza – ocena informacji.

Zerowym (wstępnym) poziomem analizy stosowanej w wywiadzie gospodarczym (konkurencyjnym) jest ocena zebranych informacji. Wielu ekspertów, praktyków i autorów książek dotyczących problemów analizy informacji, wydziela tę ocenę, jako oddzielny etap. Ale ocena sama w sobie jest już analizą, bo ostatecznie, czym jest analiza? Jest to zrozumienie tego lub innego zagadnienia lub problemu. I nie tylko zrozumienie, ale także zdolność do wykorzystania tego zrozumienia w konkretnych, pragmatycznych celach, np. jak zarabiać pieniądze w biznesie lub jak odkryć ciemną materię w fizyce. Tak więc nie można dokonać właściwej oceny bez zastosowania analizy. Ale prowadzenie analizy bez wstępnej oceny informacji jest również pustą stratą czasu i gwarancją niewłaściwego zrozumienia istoty analizowanego zagadnienia.

Tak, więc analizę informacji uzyskanych z otwartych, bezpośrednich, a także z wewnętrznych źródeł, celowym jest prowadzić po dokonaniu jej oceny, pod kątem spełnienia przez nią, co najmniej trzech kryteriów: wiarygodności, kompletności i aktualności.

Kryterium wiarygodności. Oczywistym jest, że im bardziej efektywnie wykorzystywane są metody wywiadu gospodarczego, tym bardziej wiarygodnymi są uzyskiwane informacje i tym więcej decyzji biznesowych będzie podejmowanych poprawnie. Jest tylko mały szkopuł. W przeciwieństwie do szpiegostwa przemysłowego, które może sobie pozwolić na nagranie rozmowy telefonicznej, pozyskanie agenta u konkurencji, zdobycie dokumentów za pomocą szantażu i na wiele innych działań, za które grozi odpowiedzialność karna lub administracyjna, wywiad gospodarczy działa ściśle zgodnie z prawem. Oznacza to, że przy całym swoim bogactwie narzędzi wywiadowczych, możliwości wywiadu gospodarczego są ograniczone. Dlatego musimy mieć świadomość, że: stuprocentowo wiarygodne informacje z otwartych źródeł informacji można z reguły uzyskać tylko o takich faktach, które z reguły nie są dla wywiadu interesujące. Natomiast wiarygodność informacji nieoczywistej, którą trudno jest pozyskać, jest znacznie trudniejsza do oceny i szacowana jest zwykle z pewną dozą prawdopodobieństwa. David Kimshi, jeden z najsłynniejszych dowódców izraelskich służb wywiadowczych, napisał: „Wywiad ma do czynienia z informacjami nie stuprocentowo pewnymi, ale z wysoce prawdopodobnymi. Z reguły informacje uzyskane nawet od najlepszych agentów są prawdopodobne, a profesjonalizm szefa wywiadu polega m.in. na tym, aby w oparciu o posiadane umiejętności, doświadczenie, intuicję i wiedzę dokonywać oceny poziomu prawdopodobieństwa otrzymywanych meldunków i odpowiednio do tej oceny, sądzić o ich wiarygodności ”.

W wywiadzie gospodarczym, podobnie jak w wywiadach państwowych, zawsze trzeba w jakiś sposób ustalić wiarygodność otrzymanych informacji. Istnieje wiele różnych metod, ale niestety z wielu powodów nie zawsze mają one zastosowanie w praktyce. Dlatego często stosuje się dość prostą, ale skuteczną metodę. Obejmuje ona ocenę trzech priorytetowych tzw. markerów informacji, według których:

  • im bardziej udokumentowana jest informacja, tym bardziej jest wiarygodna (przy spełnieniu innych, równych warunków). Oczywiście, pozyskane dokumenty mogą być nieaktualne lub fragmentaryczne, ale ogólnie rzecz biorąc, dokument w większości przypadków jest bardziej wiarygodny niż doniesienia medialne. Dotyczy to zwłaszcza naszej współczesności, kiedy media coraz częściej wykorzystywane są do celowego wprowadzania w błąd;
  • im w większej ilości źródeł informacja znajduje potwierdzenie, tym większa jej tzw. potwierdzalność. W przypadku informacji nieoczywistych zrozumiałe jest, że jej potwierdzenie w wielu źródłach, jest niemożliwe. Jednak zawsze należy dążyć do uzyskania drugiego, choćby pośredniego potwierdzenia informacji, co zwiększa jej wiarygodność;
  • im bardziej wiarygodne są informacje uzyskiwane ze źródła w przeszłości, tym większy autorytet źródła i tym większe prawdopodobieństwo, że i tym razem nie zawiedzie. Tak więc trzecim markerem informacji jest autorytet źródła. Ponieważ z przyczyn prawnych uzyskanie przez wywiad gospodarczy oryginalnych dokumentów jest niezmiernie trudne, a sprawdzenie informacji drogie, marker ten często występuje, jako główny. Chociaż nie trzeba traktować takiego podejścia, jako aksjomatu.

Przy autorytatywnej ocenie wiarygodności informacji przyjmuje się, że jeśli inne warunki towarzyszące pozyskaniu informacji są jednakowe, to:

  • źródła oficjalne uważane są za bardziej wiarygodne, niż te nieoficjalne, jeśli oczywiście te ostatnie nie cieszą się wyjątkowo wysokim autorytetem;
  • w odniesieniu do informacji z sieci – płatne licencjonowane internetowe źródła informacji uważane są za bardziej wiarygodne niż bezpłatne;
  • zaś informacje uzyskane za pomocą specjalnego oprogramowania są zazwyczaj oceniane jako bardziej wiarygodne, niż te uzyskane za pomocą prostej wyszukiwarki.

Na podstawie ww. trzech markerów, każdy analityk uwzględniając własne doświadczenie i zrozumienie zadania analitycznego, może wyciągnąć wnioski, co do wiarygodności informacji. Jedyne, o czym warto pamiętać, to fakt, że im obiekt, do którego odnoszą się informacje, jest bardziej skomplikowany, tym trudniej jest ocenić jego wiarygodność. Im bardziej interesuje nas przyszłość, tym z większą dozą nieokreśloności, w odniesieniu do wiarygodności informacji, trzeba godzić się w teraźniejszości. Pamiętać należy również, że rzetelność informacji ma z reguły charakter probabilistyczny.

Kryterium kompletności. Co do kompletności informacji sprawa jest oczywista. Im bardziej pełne są uzyskane dane, tym lepsza, jakość ich analizy, ale i tutaj napotykamy na trzy przeszkody. Po pierwsze, jakby się nie starać, nie wszystkie wymagane informacje można uzyskać legalnie, zgodnie z zasadami prawa. Ponadto każda informacja ma swoją cenę, a organizacja gospodarcza swój ograniczony budżet. W związku z tym kompletność informacji ściśle zależy z jednej strony od dostępnych możliwości jej pozyskiwania oraz intelektualnych i komunikacyjnych zdolności analityków, nie mówiąc o dostępnym oprogramowaniu, a z drugiej strony ograniczona jest możliwościami budżetowymi. W praktyce dla oceny kompletności informacji wykorzystywane są dwa markery:

  • uznanie informacji za tzw. minimalnie kompletną (pełną), co ma miejsce, kiedy dla każdego elementu zadania wywiadowczego istnieją jakieś dane, o stopniu wiarygodności akceptowalnym dla analityka lub osoby podejmującej decyzje. Pozwala to na kontynuowanie pracy analitycznej. Jeśli natomiast nie mamy wystarczających danych, o co najmniej jednym z parametrów zadaniowych, nie możemy mówić o kompletności informacji i zadanie wywiadowcze nie może zostać zrealizowane. Konieczne jest cofnięcie się do etapu zdobywania i gromadzenia dodatkowych danych;
  • istnienie możliwości znalezienia, co najmniej jednego zadowalającego rozwiązania zadania, dla którego realizowana jest analiza wywiadowcza. Istnieją tu jednak dwie subtelności. Po pierwsze, lepiej, aby wariantów rozwiązania było więcej niż jedno. Druga subtelność polega na tym, że marker ten nie działa na etapie analizy, ale dopiero na etapie opracowywania decyzji.

Co z tego wynika? Konieczne jest ustanowienie akceptowalnych minimalnych kryteriów kompletności, a następnie, w zależności od konkretnych okoliczności, określenie, jaka kompletność informacji jest wystarczająca do podjęcia decyzji zarządczej. W każdym razie nie będzie to ocena ilościowa, ale „ocenny” osąd osoby podejmującej decyzje i jego doradców. Należy również pamiętać, że ocena kompletności informacji będzie stale korygowana w miarę prowadzenia analizy zebranych informacji i że w pewnych sytuacjach może być konieczne wznowienie pracy nad ponownym gromadzeniem informacji, na dowolnym etapie cyklu wywiadowczego.

Kryterium aktualności. Trzecie kryterium oceny informacji – aktualność (terminowość) informacji – jest najłatwiejsze do oceny. Kryterium to, w przeciwieństwie do wiarygodności i kompletności, można kontrolować i weryfikować. Informacje są zawsze potrzebne do rozwiązania określonego problemu, a rozwiązanie to zawsze związane jest z konkretnym terminem. Wiadomo przecież, że najbardziej kompletne i wiarygodne informacje będą absolutnie bezużyteczne, jeśli zostaną przesłane po terminie, kiedy były potrzebne do rozwiązania zadania.

Dlatego, być może niezupełnie zgodnie z teoretycznymi podstawami analizy informacji, ale dla codziennej praktyki, warto zaproponować prosty sposób oceny informacji zebranych do analizy (na podst. [1]):

  • pierwszym kryterium jest pilność/aktualność (uzyskania informacji);
  • następnie ustalane są ograniczenia budżetowe i na tej podstawie określa się możliwy do uzyskania stopień kompletności informacji. Chociaż warto zauważyć, że bystry umysł analityka może w pewnych granicach rekompensować zarówno braki budżetowe, jak i ograniczenia w oprogramowaniu. Kadry oczywiście decydują, ale nie o wszystkim. Nie pomogą doświadczeni analitycy i wysokie budżety na analizę informacji, jeżeli ze względu na swoją niekompletność, nie będzie ona spełniać wymagań dwóch ww. markerów.

Na ostatnim etapie, informacje są oceniane pod kątem wiarygodności.

W rezultacie otrzymujemy ocenę informacji pod kątem jej zgodności z terminami czasowymi, możliwej kompletności i osiągalnej wiarygodności.

  1. Analiza wywiadowcza – myślenie o złożonym.

Z wielkiego słownika naukowego PWN można się dowiedzieć m.in., że «analiza to metoda badawcza polegająca na wyodrębnieniu z danej całości jej elementów i badaniu każdego z osobna». Podczas analizy informacji całość zagadnienia dzieli się na części, kiedy jego zrozumienie, a co ważniejsze wykorzystanie, jako całości jest zbyt trudne. Tak więc analiza w swojej istocie, to myślenie (rozpatrywanie) o złożoności, a metody analityczne, to sposoby na zrozumienie złożoności.

Co ciekawe, istniejąca współcześnie nauka, wywiad we współczesnym rozumieniu jego znaczenia, a także klasyczna gospodarka rynkowa pojawiły się prawie w tym samym czasie w Wielkiej Brytanii. U ich podstaw legła właśnie analityczna wizja świata. Metaforą tego obrazu świata był zegar. Założono, że cały świat, wszystkie jego części składowe, a także społeczeństwo i działalność człowieka, są podobne do jednego wielkiego mechanizmu zegarowego. Mechanizm ten można montować, demontować, zamieniać jego części. Stanowi on prostą konstrukcję, a co najważniejsze, całość jest całkowicie zdeterminowana (określona) częściami, z których się składa. Ten obraz świata znajduje odzwierciedlenie nawet w samym języku angielskim, który według definicji lingwistów nazywany jest językiem „analitycznym”.

Tak rozumiana analiza niezaprzeczalnie jest niezmiernie ważna, ale dzisiaj jest już jasne, że świata, a zwłaszcza społeczeństwa, nie można sprowadzić do prostego mechanizmu. Całość, choć składa się z części, nie ogranicza się jedynie do nich, a złożonych systemów nie można traktować, jako prostych mechanizmów.

Jednak właściwości ludzkiego myślenia, które prawdopodobnie związane są z psychofizjologicznymi cechami mózgu, nie pozwalają człowiekowi na bezpośrednie rozpatrywanie bardzo złożonych zagadnień, systemów czy procesów. Do zrozumienia złożoności człowiek dochodzi poprzez prostotę. Powszechnie wiadomo, że zdecydowana większość ludzi może działać wykorzystując jednocześnie pięć do siedmiu, maksymalnie dziewięć zmiennych, a liczba osób, teorii, scenariuszy, które człowiek może zapamiętać, opanować i stale przechowywać w swojej pamięci operacyjnej, nie przekracza 150, czyli tzw. liczby Dunbar’a[7]. I chociaż kluczowym w działalności człowieka jest prognozowanie, to jak wyjaśnili znani psychologowie XX w. V. Brushlinsky i K. Young, myślenie jest niczym innym, jak syntezą poprzez analizę. I to synteza okazuje się być produktem wyjściowym każdej operacji myślowej, niezbędnym do efektywnej pracy zarówno w życiu codziennym, jak i biznesowym.

Od ponad czterdziestu lat najpotężniejsze komputery grają w gry z ludźmi, i to nie ze zwykłymi ludźmi, ale z najlepszymi profesjonalistami w swojej dziedzinie. Pierwszą taką grą były szachy. Okazało się, że tam, gdzie człowiek konkuruje z maszyną w rozwiązywaniu problemów związanych z liczeniem i gdzie zarówno człowiek, jak i maszyna muszą działać zgodnie z ustalonymi regułami, maszyna radzi sobie z zadaniami lepiej niż człowiek, ale żadna maszyna, przynajmniej na razie, nie jest w stanie konkurować z człowiekiem, jeśli dany problem nie jest określony przez stałe reguły lub kiedy problem zadaniowy może się zmienić w trakcie operacji. Dzieje się tak przede wszystkim z powodu fundamentalnych różnic pomiędzy działaniami obliczeniowymi maszyny, a ludzkim myśleniem.

Człowiek w przeciwieństwie do maszyny, na co istnieje obecnie ogromna liczba potwierdzeń uzyskanych przez badaczy z różnych dziedzin wiedzy i praktyki, nie myśli liczbowo. Nie myśli nawet słowami. Chociaż, jak się okazało, język ma wpływ na myślenie, obraz postrzeganego świata i programy działania. A jednak nasze myślenie nie opiera się na słowach, lecz na czymś podobnym do obrazów mentalnych. Podczas myślenia człowiek nie wykonuje żadnych poleceń, niezależnie od tego, czy wykonuje jedną operację myślową czy kilka równolegle. Współczesna neuropsychologia[8] ustaliła również, że ludzie mogą być z grubsza podzieleni na dwie grupy. Na tych, z tak zwanym myśleniem w prawej półkuli i na tych, z myśleniem w lewej półkuli mózgowej. Działania niektórych ludzi są bardziej zdominowane przez rozsądek, logikę lub inaczej mówiąc przez rozumowanie racjonalne[9]. U innych można zauważyć postrzeganie holistyczne[10], które często utożsamiane jest z emocjami i intuicją. W rzeczywistości każda osoba wykorzystuje zarówno lewą, jak i prawą półkulę. Co więcej, gdy coś dzieje się z jedną z półkul, druga częściowo przejmuje funkcje uszkodzonej części mózgu.

Może pojawić się pytanie, co to ma wspólnego z analizą wywiadowczą. Odpowiedź jest prosta. Analiza wywiadowcza, jak się okazało w wyniku specjalnych badań w USA i Wielkiej Brytanii wśród najbardziej zdolnych analityków, to głównie myślenie z wykorzystaniem lewej półkuli, która wykorzystywana jest bardziej w złożonych sytuacjach lub w odniesieniu do złożonego problemu.

Każde myślenie (czy to w zupełnie zwyczajnym życiu, czy w biznesie), jak już dziś jest jasne, zaczyna się od nałożenia zaistniałych faktów na istniejący w umyśle danego człowieka model lub wizerunek świata. Człowiek nie patrzy na te fakty bezpośrednio, ale postrzega je przez pryzmat tego właśnie modelu. Oznacza to, że każdy człowiek faktycznie patrzy na świat przez rodzaj „szkła”. To bardzo ważne. Im bardziej ten model świata dostosowany jest do konkretnej aktywności zawodowej człowieka, im więcej zawiera komórek, połączeń itp., tym szybciej i lepiej poradzi sobie ze swoim zawodowym zadaniem. Idealnym rozwiązaniem jest, jeśli człowiek może wygenerować nie jeden, ale kilka modeli świata i wykorzystać je w praktycznych działaniach. Modelem tym jest nic innego, jak doświadczenie, odpowiednio upakowane, zrestrukturyzowane i gotowe do użycia, a ponieważ ludzie mają różne doświadczenia i ich umiejętności również się różnią, to każdy człowiek ma swój własny model postrzegania świata.

Od tych naszych wewnętrznych modeli zależy postrzeganie faktów, zjawisk, zdarzeń i ich rozumienie. Naukowcy z Uniwersytetu Harvarda odkryli, że 90% błędów w rozumowaniu jest związanych z błędami percepcji, a 80% błędnych decyzji podejmowanych jest na skutek błędów w zrozumieniu. Z kolei naukowcy ze słynnego Centrum Palo Alto stwierdzili, że: 60% błędów w postrzeganiu jest związanych z niewłaściwie dobranymi modelami percepcji, a kolejne 40% z rozproszoną uwagą. Jeśli dana osoba działa w oparciu o nieefektywne modele, wówczas przy rozwiązywaniu jakiegokolwiek problemu zwykle stosuje nawykowe, szablonowe rozwiązania i działa na podstawie tzw. Metody Brutalnej Siły[11]. Ta metoda rozumowania jest najczęstszą metodą analityczną stosowaną przez ludzi i należy ją uznać za dość skuteczną, ale tylko w życiu codziennym i w prostych sytuacjach. W metodzie tej rozwiązanie podpowiada nam wyłącznie wcześniejsze doświadczenie lub wspomnienia podobnych sytuacji, które miały miejsce w przeszłości.

W trudnych sytuacjach metoda ta zawodzi. W tym przypadku rozwiązania szablonowe nie są odpowiednie, konieczne jest świadome myślenie. Świadome myślenie ma miejsce wtedy, gdy dana osoba podejdzie do problemu za pomocą różnorodnych narzędzi rozumowania, tj. używa narzędzia do rozwiązywania niektórych problemów, podobnie jak używa się samochodu do szybszego przemieszczania. Historycznie takie narzędzia świadomego rozumowania nazywano logikami. W najszerszym tego słowa znaczeniu logika jest metodą, instrumentem świadomego myślenia, a każdy instrument (narzędzie) można wykorzystywać tylko zgodnie z instrukcją (regułą) jego eksploatacji.

Logika, jako nauka poprawnego myślenia, narodziła się w starożytnej Grecji ze sztuki prowadzenia polemiki, czyli sztuki prowadzenia sporów. Nawiasem mówiąc sama sztuka prowadzenia sporu była ściśle związana ze sztuką wojenną (z gr. polemos – wojna). Często najbardziej znani polemicy okazywali się również sławnymi dowódcami wojskowymi. W związku z tym spór interpretowany był, jako rodzaj bitwy, która odbywała się jednak zgodnie z pewnymi przepisami. W każdym pojedynku musi być zwycięzca. Aby zidentyfikować zwycięzcę w walkach słownych, ustanowiono zasady. Kiedy system dowodów i zaprzeczeń prezentowany przez mówcę odpowiadał tym zasadom, osoba ta zostawała uznawana za zwycięzcę, a ten, kto je naruszył, odpowiednio, przegranym. Arystoteles[12] przeniósł te zasady ze sztuki argumentacji na myślenie, na system rozumowania o czymś określonym, a także do tekstów pisanych. I tak pojawiła się nauka logiki. Nauka ta zakłada, że każde stwierdzenie lub każda myśl może mieć tylko dwa znaczenia – prawdziwe lub fałszywe. Aby ustalić, czy jest to prawda czy fałsz, Arystoteles uogólnił reguły relacji między wypowiedziami, które ukształtowały się w praktyce. Co zaskakujące, logika arystotelesowska wciąż istnieje i większość ludzi w życiu codziennym i biznesie nadal z niej korzysta.

Jednak w przypadku logiki arystotelesowskiej sytuacja jest taka sama, jak przy użyciu gotowych szablonów do rozwiązywania nowych problemów (Metoda Brutalnej Siły). W wielu prostych sytuacjach logika ta się sprawdza, ale w bardziej skomplikowanych praktycznie nie działa.

Logicy też to zrozumieli i począwszy od lat 20. ubiegłego wieku zaczęli opracowywać bardziej złożone systemy logiczne. Pierwszego opracowania dokonał rosyjski naukowiec N. A. Wasiliew, który stworzył tzw. „logikę wyimaginowaną”[1]. Następnie Polak Jan Łukaszewicz stworzył logikę opartą na trzech wartościach (stanach) – prawda, fałsz i nieznane, a rosyjski logik i pisarz A. Zinowiew logikę złożoną, w ramach której można tworzyć dowolne reguły myślenia, z dowolną skalą oceny fałszu i prawdy i innymi skalami oceny osądów. Ponieważ każda logika dąży do sformalizowania, logika złożona została również sformalizowana przez Amerykanina L.A. Zadeha i nazwana „logiką rozmytą”. W logice rozmytej każde stwierdzenie lub osąd danego faktu ma charakter probabilistyczny i przyjmuje dowolną wartość – od zera do jednego. Biznes faktycznie działa w warunkach permanentnej logiki rozmytej. W trudnych sytuacjach, których jest coraz więcej w naszym życiu i biznesie, my sami, nie wiedząc o tym, działamy zgodnie z logiką Zinowiewa lub logiką rozmytą. Zakłada ona, że istnieje wiele systemów logicznych lub wiele reguł, które mogą być wykorzystywane jednocześnie lub osobno, a także, że istnieje wiele systemów oceny, które różnią się w zależności od sytuacji.

Zgodnie z takim rozumowaniem, wszystkie metody analityczne mogą być przedstawione jako szczególne przypadki logicznego myślenia według logiki rozmytej. Powyższe wystarczająco przekonująco pokazuje, że żadnego złożonego problemu nie można rozwiązać za pomocą metod typowych wzorców (brutalnej siły) i logiki formalnej. Aby to zrobić, należy wziąć pod uwagę analityczne metody pracy z informacją.

  1. Analiza wywiadowcza – metody analizy.

W życiu, w wywiadzie, w biznesie, podczas czytania literatury biznesowej, na stronach internetowych często spotykamy się z terminami metoda, narzędzie, władanie (wiedzą, umiejętnościami). Często są one używane, jako synonimy, zastępują się nawzajem. Rozróżnijmy je.

  • Metoda, to bazujący na tych lub innych osiągnięciach naukowych sposób rozumienia świata i jego elementów składowych. Metoda to również opis tego, jak działać – udokumentowany sposób działania.
  • Technologia (narzędzie) to instrumentalne wsparcie metody, jej sprzętowo-programowa część, wraz z instrukcją ich użycia.
  • Władanie – to nawyk posługiwania się instrumentem (narzędziem), technologią.

W rozdziale tym przedstawimy samą istotę różnych metod analizy wywiadowczej. Dla każdej z tych metod istnieją narzędzia (technologie), które ze względu na objętość artykułu nie zostaną tu szczegółowo przedstawione.

Kilka słów o tym, jak używać i wybierać metody. Otóż, im prostsze zadanie wywiadowcze, które mamy przeanalizować, tym mniejszą ilością metod analizy można się obejść. Z kolei im mniej informacji, tym więcej metod analizy należy zastosować. Należy zauważyć, że brak informacji można w pewnym stopniu zrekompensować za pomocą różnych narzędzi. Pamiętać należy jednak o ww. minimalnych kryteriach wiarygodności i kompletności informacji. Jeśli informacje ich nie spełniają, żadne narzędzie nie pomoże.

Ponieważ wszystkie metody analizy nie mogą być używane jednocześnie, kolejność i wybór metod zależy od indywidualnych preferencji i umiejętności ich wykorzystania oraz dostępnych narzędzi programowych. Przede wszystkim jednak wybór metody zależy od przedmiotu analizy. Dlatego przedstawiony niżej opis metod analizy wywiadowczej, nie zostanie podany w kolejności ważności lub zastosowania, ale w sposób arbitralny.

Metoda analizy systemowej. Analiza systemowa, to podejście badawcze w naukach społecznych, uznające pojęcie systemu i jego analizę za kluczowe dla zrozumienia zjawisk społecznych. Analiza systemowa jest szczególnie przydatna do złożonych zadań w szybko zmieniającym się otoczeniu, typowym dla naszych czasów. Jest ona formalnym i jawnym badaniem wspomagającym działanie osób odpowiedzialnych za decyzje lub linię postępowania w określonej (złożonej) sytuacji, charakteryzującej się dużą dozą niepewności. Ma na celu określenie pożądanego działania lub linii postępowania przez rozpoznanie i rozważenie dostępnych wariantów oraz porównanie ich przewidywanych następstw.

Można powiedzieć, że „analiza systemowa – to sztuka poznawania i określania systemów drogą budowania modeli”[6], zaś „występujące w otaczającym nas świecie zjawiska np. przyrodnicze, społeczne, gospodarcze, techniczne, bez względu na ich rodzaj, zwykło się w potocznym rozumieniu nazywać systemami. Za systemy uważa się również konstrukcje abstrakcyjne, takie jak liczby, informacje, pojęcia, zadania, teorie. Analogicznie, jako system traktuje się także zbiorowości towarów konkretnych i abstrakcyjnych”[7].

Analiza systemowa wymaga jasnego określenia granic badanego systemu i jego części składowych. W związku z tym metoda ta spotyka się z krytyką, że doprowadza do ograniczonego myślenia (przykładowo, myśląc o organizacji gospodarczej, jako o systemie, sztucznie tworzymy sobie stereotyp jej otoczenia, co później negatywnie wpływa na naszą zdolność percepcji).

W najprostszej formie analiza systemowa polega na wydzieleniu trzech komponentów: środowiska zewnętrznego, środowiska funkcjonowania systemu i samego systemu. Jednak zarówno życie, jak i nauka coraz bardziej skłaniają się ku idei uniwersalnych powiązań, a samo życie pokazuje, że: wszystkie czynniki, warunki, zdarzenia, procesy związane z analizą danego problemu można podzielić na dwie grupy (pierwsza grupa – środowisko zewnętrzne; druga grupa – środowisko funkcjonowania systemu i system). Pierwszą można pominąć, ale drugiej pominąć w żadnym wypadku nie można. Dlatego już przy stawianiu zadania wywiadowczego konieczne jest skupienie się wyłącznie na środowisku funkcjonowania systemu i samym systemie.

Ponadto analiza systemowa zakłada, że każdy obiekt rozpatrujemy, jako oddziałujące na siebie jego elementy składowe, na które jednocześnie oddziałuje środowisko jego funkcjonowania. W związku z tym musimy wyróżnić:

  • sam system,
  • te parametry środowiska jego funkcjonowania, które na niego wpływają i na które on wpływa,
  • elementy z których składa się system,
  • oraz powiązania między nimi.

Dla wyróżnienia systemu, szczególnie ważne jest określenie tych jego cech lub parametrów, które charakteryzują system jako całość, a którymi nie dysponują poszczególne elementy, wchodzące w jego skład. Ponadto przy stawianiu zadania wywiadowczego, zadawane są parametry wejściowe, wyjściowe i operacyjne systemu, niekoniecznie w formie ilościowej.

Analiza systemowa polega zasadniczo na wyjaśnieniu następujących kwestii:

  • jakie czynniki zewnętrzne wpływają na system i jak system wpływa na środowisko, w którym funkcjonuje. Szczególną uwagę zwraca się na rozdzielenie czynników zewnętrznych wpływających na system, na dwie grupy: te, które w żaden sposób nie są zależne od systemu i te, na które system może w jakiś sposób wpłynąć;
  • określenie elementów systemu i związków między nimi. Wyróżnia się takie wzajemne powiązania, które oddzielają system od środowiska zewnętrznego i w rzeczywistości tworzą zbiory elementów jednej całości, tj. systemu. Te same połączenia determinują także funkcje systemu, jego właściwości, jako jednej całości, niezależnej od właściwości poszczególnych elementów systemu. W klasycznej już pracy poświęconej analizie systemowej, napisanej w latach siedemdziesiątych ubiegłego wieku, S. Optner napisał, że przy analizie systemowej stosuje się takie same podejście, jak w przypadku pracy z tzw. „czarną skrzynką”, tzn. rozpatruje się stany na jej wejściu i wyjściu. Jednak w przeciwieństwie do „czarnej skrzynki”, podejście systemowe w analizie ujawnia również jej zawartość. Skrzynka staje się „przezroczysta”, dzięki czemu można stwierdzić, w jaki sposób parametry wejściowe są konwertowane na dane wyjściowe, jak na te parametry wpływa środowisko, w którym funkcjonuje system i jak system wpływa na to środowisko;
  • określenie, w jaki sposób zmieniają się relacje między elementami systemu w czasie i jakie zmiany to prowadzi do interakcji systemu z jego środowiskiem zewnętrznym.

Przedstawiony wyżej opis, oddaje w przybliżeniu istotę metody analizy systemowej. Tym, którzy chcą bardziej szczegółowo zapoznać się z jej zastosowaniem do rozwiązywania różnych problemów biznesowych w dostępnej i wystarczająco szczegółowej prezentacji, warto polecić książkę D. Garaedagi „System Thinking”.

Metoda przyczynowo-skutkowa. Powszechnie wiadomo, że wszystko na świecie ma swoją przyczynę, która powoduje określone konsekwencje, skutki. Jednak często bywa, że skutek ma nie jedną przyczynę (powód), a kilka. W systemach złożonych, do których odnoszą się wszystkie systemy z udziałem człowieka, mamy do czynienia ze zjawiskiem przyczynowości pierścieniowej. Przyczynowość pierścieniowa występuje, gdy przyczyny i skutki stale zamieniają się miejscami. Niemniej jednak analiza przyczynowa musi koniecznie zostać uwzględniona w arsenale analizy wywiadowczej. W najprostszej postaci metoda ta nazywana jest metodą „Pięciu Dlaczego”[13], a sprowadzić można ją do następujących głównych działań:

  • wybierany jest obiekt, w stosunku do którego poszukiwana jest przyczyna. Obiektem mogą być zdarzenia, problemy, sytuacja zaistniała na rynku, pojawiająca się na rynku opatentowana technologia itp. Pod pojęciem zdarzeń, ich przyczyn i skutków można zrozumieć absolutnie wszystko, co dotyczy przedmiotu rozpoznania wywiadowczego. Ponieważ zwykle w ramach jednego zadania analitycznego mamy do czynienia z wieloma, a czasem bardzo wieloma wydarzeniami, musimy od czegoś zacząć;
  • aby wybrać początkowe zdarzenie do analizy, możemy zastosować metodę głównego ogniwa lub tzw. teorię ograniczeń[14];
  • ponieważ zdarzenie często posiada kilka przyczyn, najpierw należy ustalić przyczyny nazywane przyczynami „pierwszego rzędu”, tj. przyczyny bezpośrednio związane z danym zdarzeniem;
  • w zdecydowanej większości sytuacji biznesowych i co za tym idzie, w rozwiązywaniu zadań stojących przed wywiadem, nie należy ograniczać się do przyczyn pierwszego rzędu, a sięgnąć głębiej. Jak głęboko należy sięgać rozpatrując przyczyny zdarzenia, zależy od czasu, ilości informacji i dostępnych zasobów. Ale jak pokazuje praktyka biznesowa, uogólniona przez badaczy, którzy badali ten problem w różnych krajach, w pełni wystarczy uwzględnienie trzech do pięciu poziomów przyczyn.

Odpowiednio, na wyjściu otrzymujemy tzw. „drzewo przyczyn” odniesione do głównego zdarzenia. Takich „drzew” przy analizie wywiadowczej, należy stworzyć od jednego do pięciu. Dla małego biznesu, w większości przypadków wystarczy zbudować „drzewo przyczyn” dla jednego głównego zdarzenia, dla średniego biznesu (MiSP) – około trzech „drzew” dla powiązanych ze sobą zdarzeń, a dla dużego przedsiębiorstwa – pięć „drzew przyczyn”.

Metoda analizy zasobów funkcjonalnych. Ta metoda analizy, zwana również analizą funkcjonalno-kosztową lub analizą kosztów funkcjonalnych, powstała w drugiej połowie XX w. w celu rozwiązania problemów technicznych. Stopniowo znalazła również zastosowanie w rozwiązaniu problemów ekonomiczno-biznesowych i została włączona do analizy biznesowej, a także do realizacji zadań analizy wywiadowczej. W swojej istocie analiza funkcjonalno-kosztowa polega na identyfikacji określonych funkcji danego systemu i zasobów wymaganych dla realizacji tych funkcji.

W odniesieniu do analizy wywiadowczej głównymi składnikami metody funkcjonalno-kosztowej są:

  • identyfikacja wszystkich funkcji obiektu analizy wywiadowczej. Dla łatwiejszego zrozumienia kwestii identyfikacji funkcji obiektu posłużymy się przykładem. Weźmy pod uwagę osobę, która działa, jako dyrektor sprzedaży. Oczywistym jest, że ta funkcja nie jest jedyną, jaką realizuje ta osoba. Człowiek ten ma grono partnerów biznesowych i w stosunku do nich realizuje inną funkcję. Ma sferę kontaktów międzyludzkich i jest to innego rodzaju funkcjonalność. W końcu jest związany osobistymi związkami, a tam również realizuje swoje funkcje. Zbiór wszystkich realizowanych przez niego funkcji stanowi pełną funkcjonalność. Co więcej, jeśli nie wszystkie, to wiele z wymienionych funkcji może być pośrednio i bezpośrednio związanych z przedmiotem naszej analizy wywiadowczej. Dlatego identyfikację funkcjonalności obiektu wymieniamy jako pierwszy, podstawowy składnik analizy funkcjonalno-kosztowej;
  • zidentyfikowanie głównej funkcji. W odniesieniu do analizy wywiadowczej funkcja ta powinna być nie tylko zidentyfikowana, ale także przeanalizowana pod względem właściwych dla analizy wywiadowczej terminów, takich jak: możliwości, ryzyko, zagrożenia itp.;
  • określenie, na jakie funkcje, ile zasobów zostanie wydanych. Wykonywanie dowolnej funkcji wymaga od człowieka wydatkowania pewnych zasobów. Zasoby mogą być bardzo różne – pieniądze, czas, wiedza itp. W związku z tym każda funkcja powinna być powiązana z zasobami zaangażowanymi w jej wykonywanie.

Na wyjściu procesu analizy zasobów funkcjonalnych, jako wynik tej analizy, otrzymujemy macierz zasobów funkcjonalnych. Dalej macierz ta powinna zostać zinterpretowana ponownie według terminologii postawionego zadania wywiadowczego.

Metoda analizy morfologicznej. Morfologia z greckiego oznacza naukę o strukturze. Analiza morfologiczna, to jedna z metod, która łączy w sobie pierwiastek intuicyjny i analityczny. Jest to metoda kombinatoryczna stanowiąca swoisty symulator wyobraźni. Słynny alchemik Raimund Lullius wynalazł tę metodę w średniowieczu. Drugie narodziny metoda ta miała w drugiej połowie XX wieku, za sprawą niemieckiego naukowca-wynalazcy, biznesmena, a ostatecznie przemysłowca F. Zwicky’ego, który opracował podstawy analizy morfologicznej podczas prowadzonych, w latach 1938-1948 w Azusa w Kalifornii, badań rozwojowych w dziedzinie rakiet. Po raz pierwszy określenie analiza morfologiczna zostało użyte przez Zwicky’ego podczas odczytu wygłaszanego w Uniwersytecie Oksfordzkim w maju 1948 roku.

W swojej metodzie analizy, zastosował metodę tzw. „skrzynki morfologicznej” do analizy i rozwiązywania problemów technicznych. „Skrzynkę (tablicę) morfologiczną” Zwicky tworzył w następujący sposób: do analizy przyjmował określoną klasę urządzeń technicznych, które przedstawiał, jako system. W systemie tym wydzielał elementy, relacje między nimi i ich charakterystyki. Następnie tworzył macierz i analizował każdą komórkę tej macierzy pod kątem rozwiązania swojego problemu. W uproszczeniu można powiedzieć, że była to metoda przeglądu wszystkich możliwych rozwiązań, które zostały określone przez strukturę systemu, jego właściwości, jego elementy i ich cechy. Pomimo swojej prostoty metoda F. Zwicky’ego przyniosła jej twórcy miliony marek, ponieważ dzięki niej udało mu się stworzyć wiele nowych technicznych rozwiązań i produktów.

Wkrótce metoda F. Zwicky’ego zaczęła być stosowana nie tylko do analizy problemów technicznych, ale także do analizy praktycznie dowolnych systemów, w tym biznesowych. Pojawił się jednak problem. Systemy biznesowe okazały się czymś w rodzaju „matrioszki”. W nauce nazywa się to fraktalnością[15], która ma miejsce wtedy, kiedy każdy element systemu, sam jest systemem. W rezultacie wymiary lub inaczej rozmiar „skrzynki morfologicznej”, okazuje się być tak wielki, że człowiek po prostu nie jest w stanie go przeanalizować.

Począwszy od lat 70. ubiegłego wieku w Rosji V. M. Odrin opracował specjalne procedury, które pozwalają znacznie poprawić metodę morfologiczną i zasadniczo przekształcić ją w metodę analizy i projektowania strukturalnego, znajdującą zastosowanie do rozpatrywania dowolnych systemów. W najprostszej postaci metodę V. M. Odrina można sprowadzić do następującej sekwencji operacji:

  • ponieważ każdy system jest bardzo złożony, najważniejsze jest dobór tych elementów, relacji między nimi i ich cech, które są ważne z punktu widzenia konkretnego zadania. Wyboru tych elementów i wiązanych z nimi wielkości (z punktu widzenia zadania) dokonuje się na samym początku analizy. Zadanie wywiadowcze określa również głębokość (zakres) przeglądu elementów;
  • głębokość przeglądu elementów oznacza stworzenie hierarchii, w której dowolny element systemu jest uważany za podsystem. I tak, biorąc za podstawę zadanie wywiadowcze, ustalamy liczbę poziomów hierarchii;
  • następnie budowana jest macierz hierarchiczna w postaci drzewa. W tłumaczeniu na polski oznacza to, że budujemy macierz dokładnie na taką głębokość (do takiego poziomu hierarchicznego), ile potrzeba, aby rozwiązać zadanie.

W wyniku zastosowania metody Odrina uzyskujemy swego rodzaju kompletną strukturę danego obiektu stworzoną pod potrzeby rozwiązywanego zadania. Następnym krokiem jest interpretacja tej struktury w kontekście naszego zadania wywiadowczego. Metodę tę można stosować do każdego rodzaju analizy, ponieważ pozwala zrozumieć i uporządkować (zrestrukturyzować) każdy problem, a cechy ludzkiego myślenia są takie, że lepiej radzą sobie z problemami zrestrukturyzowanymi (uporządkowanymi).

Uniwersalność tej metody została szybko doceniona przez analityków i kadrę zarządzającą, począwszy od różnego rodzaju dyrektorów i kierowników, przez analityków wywiadu, do projektantów i konstruktorów złożonych systemów technicznych, takie jak elektrownie jądrowe, czy rakietowe pociski międzykontynentalne.

W uproszczonej postaci analiza morfologiczna może być realizowana w następujący sposób. Przede wszystkim w metodzie tej precyzyjnie określony musi być problem badawczy. Jej podstawowym założeniem jest teza, że każdy system można określić zbiorem charakterystycznych cech (parametrów), a każdą cechę systemu – zbiorem stanów parametrycznych jej spełnienia. Każdą taką cechę (formę, funkcję, element itp.) autor tej metody nazywa zmienną niezależną. Wyodrębniając takie zmienne można określić wszystkie możliwe składowe każdej funkcji lub każdej formy i poddać je badaniu. Cechy systemu i warianty ich spełnienia (stany parametryczne) składają się na skrzynkę (tablicę) morfologiczną. Stanowi ona zbiór kombinacji łączących ze sobą różne składowe, a więc zbiór różnych koncepcji rozwiązania problemu. Z rozwiązań tych należy wybrać tylko te, które mogą być użyteczne z punktu widzenia osiągnięcia zamierzonych celów. Metoda ta obejmuje 5 etapów:

  • sformułowanie zadania (postawienie problemu);
  • identyfikację i analizę zbioru charakterystycznych cech rozpatrywanego problemu i podział tego problemu na elementy składowe (dekompozycja problemu);
  • syntezę, tj. budowę macierzy morfologicznej (zbioru koncepcji rozwiązania problemu);
  • sformułowanie kryteriów oceny rozwiązań i dokonanie wyboru rozwiązania optymalnego;
  • opracowanie wyników.

W metodzie tej ważne jest łączenie ze sobą różnych cech, czyli tworzenie różnych kombinacji, różnych modeli teoretycznych, a następnie redukowanie liczby tych modeli (kombinacji) i zadbanie o to, aby ich selekcja nie była przypadkowa. W rozwiązywaniu takich kombinacji pomaga oczywiście technika komputerowa. Warto zaznaczyć, że większość metod stosowanych dzisiaj w analizie biznesowej, takich jak matryce SWOT, metoda pięciu sił rynkowych Portera itp., są niczym innym, jak „sprymitywizowanymi” do granic możliwości metodami analizy morfologicznej, w jej pierwotnym znaczeniu.

Metoda analizy dialektycznej. Analizę dialektyczną[16] należy w zasadzie wywodzić od starożytnych Greków, Heraklidesa i Sokratesa, a także od niemieckich XVIII-wiecznych filozofów – Feuerbacha i Hegla, nie zapominając o dialektyce materialistycznej K. Marksa i F. Engelsa.

Współcześnie okazuje się jednak, że jeśli logikę dialektyczną uwolnić od warstw ideologicznych, to pozwala ona zrozumieć i opisać złożone procesy dynamiczne, a co najważniejsze, pozwala zrobić to w dość zwartej formie. Zwartość jest tu bardzo ważna. Możliwość operowania informacjami u człowieka nie jest nieograniczona, a im lepiej możemy upakować obiekty i procesy realnego świata w pojęcia i terminy, którymi operujemy w analizie wywiadowczej, tym większe szanse, aby przenieść nasze rozumienie zadania w prawidłową decyzję. Z tego m.in. powodu analiza dialektyczna powinna znaleźć swoje miejsce wśród analitycznych narzędzi współczesnego analityka wywiadu.

W najbardziej skondensowanej formie analiza ta obejmuje alokację (wydzielenie) trzech aspektów obiektu poddawanego analizie:

  • W dowolnym obiekcie, procesie, a tym bardziej, w złożonym systemie występują wewnętrzne sprzeczności/konflikty. Ważne jest tutaj, aby uwaga analityka koncentrowała się raczej na sprzecznościach/konfliktach wewnętrznych, a nie zewnętrznych. Im bardziej złożony system, tym więcej sprzeczności/konfliktów. Dlatego nie wystarczy zidentyfikować tych sprzeczności/konfliktów, ale ważne jest również ustalenie relacji między nimi i określenie głównej/go sprzeczności/konfliktu, od którego zależy istnienie i zmiana systemu. W klasycznej logice dialektycznej nazywa się to prawem jedności i walki przeciwieństw;
  • Każdy obiekt podlega zmianom. Im prostszy obiekt, tym mniej wariantów zmian. Bywają zmiany stopniowe, które zachodzą w granicach jednego stanu obiektu lub zmiany skokowe, kiedy obiekt przechodzi nagle z jednego stanu do drugiego. W analizie dialektycznej konieczne jest określenie, które parametry obiektu zmieniają się i gdzie przebiega granica między zmianami stopniowymi, a zmianami skokowymi (lub jak się je obecnie często określa, zmianami fazowymi). W klasycznej dialektyce nazywa się to przejściem ilości, w jakość. Zilustrujemy to przykładami. Każdy nawet najbardziej złożony mechanizm jest prostym systemem w porównaniu do dowolnego żywego organizmu, a każdy żywy organizm jest prostszy niż system (społeczny), w którym dany człowiek funkcjonuje. Weźmy więc prosty system – samochód. Wyposażony jest w taki element, jak klocki hamulcowe. W miarę ich używania klocki stają się cieńsze, a po przekroczeniu pewnego limitu zużycia, po prostu przestają działać. W przykładzie tym następuje przejście ilości, w jakość. W naukach technicznych jest to realizowane poprzez analizę niezawodności. Drugi przykład pochodzi z życia codziennego. Pod uwagę bierzemy człowieka, który jest profesjonalistą pracującym w swoim zawodzie. W miarę wzrostu swoich umiejętności zawodowych początkowo był zadowolony z okresowego podwyższania wynagrodzenia za swoją pracę i nadal działał w ramach swoich kompetencji w ramach zajmowanego stanowiska, ale po przekroczeniu pewnego progu samo podniesienie pensji przestało mu odpowiadać i zapragnął zająć wyższą pozycję w hierarchii swego przedsiębiorstwa lub przenieść się do innej, bardziej znanej firmy. Ponownie mamy do czynienia z przejściem od ilości, do jakości. Nawet w absolutnie trywialnych problemach ważne jest, aby znać granice przejścia fazowego (skokowego), a tam gdzie konieczne jest zastosowanie metod wywiadowczych, określenie granic takiego przejścia fazowego (skokowego) jest pierwszą i podstawową koniecznością;
  • Wraz z przejściem systemów do nowego stanu fazowego, system ten uzyskuje inne właściwości i cechy charakterystyczne. Jest to trzecie prawo klasycznej dialektyki, czyli negacja negacji[17]. I tutaj z reguły rozpoczynały się ciągłe „nieporozumienia”. Tymczasem prawo to zawiera cechy właściwe niemal wszystkim zjawiskom. W nowym stanie systemu to, co wcześniej było najważniejsze, często staje się drugorzędne. I wreszcie, każdy system, nawet w zmienionym stanie, ma własną historię. Co więcej zaobserwowano empirycznie, że w wielu systemach nowy stan jest, w istotnych aspektach, powtórzeniem starego, tylko w znacznie bardziej złożonym kształcie. Przy czym powtórzenie to nie dotyczy stanu bezpośrednio poprzedzającego nowy, ale jeszcze wcześniejszego stanu fazowego, czyli stanu przedpoprzedniego. Zaobserwowano, że im bardziej złożony jest system, tym z większym prawdopodobieństwem, ta ostatnia reguła będzie funkcjonowała.

W analizie wywiadowczej metodę dialektyczną powinno wykorzystywać się w analizie procesów, koncentrując się na identyfikowaniu sprzeczności, warunkach przejścia fazowego i historycznych uwarunkowaniach zachowania się układu złożonego.

Metoda analizy sieciowej. Według zdecydowanej większości analityków potęgą XXI wieku będą Chiny. Obecnie jest to główny motor całej światowej gospodarki. Dlatego nie jest przypadkiem, że od końca ubiegłego stulecia, a szczególnie intensywnie w obecnym stuleciu, Zachód zaczął stosować metody historycznie właściwe chińskiej myśli analitycznej. Jedną z takich metod jest metoda analizy sieci. Taoizm, który z góry ustalił całą chińską myśl, teorię i praktykę w zarządzaniu państwem i gospodarką, strategią wojskową itp. wywodził rozumienie świata, z dynamicznej sieci połączeń, wijącej się wokół naturalnych praw i charakteryzującej się dużą zmiennością. Internet z jednej strony i praca ze złożonymi, przede wszystkim żywymi systemami z drugiej, przyspieszyły rozwój w dziedzinie analizy sieciowej. Należy od razu zauważyć, że matematyka zajmowała się sieciami już wcześniej, w zasadzie od początku ubiegłego wieku i opracowała związany z nimi, niezwykle wyrafinowany aparat matematyczny.

Analiza sieciowa może być stosowana do sieci składających się z absolutnie dowolnych obiektów. Mogą to być ludzie, firmy, wydarzenia, a nawet patenty i wynalazki. Podczas przeprowadzania analizy sieci wykonuje się obowiązkowo kilka następujących, sekwencyjnych operacji:

  • określa się zakres analizy, tj. wprowadza się ograniczenia na liczbę analizowanych połączeń. Ponieważ wszystko jest powiązane ze wszystkim, musimy od razu ustalić, ile kroków połączeń nas interesuje. Im więcej kroków, tym odpowiednio więcej uczestników. Ponieważ udowodniono, że dla dowolnej sieci liczba połączeń między uczestnikami nie rośnie w postępie arytmetycznym, ale w postępie geometrycznym, to wraz ze wzrostem liczby kroków wymiar rośnie niesamowicie, a zaczynając od określonego rozmiaru, analizy nie można już przeprowadzić ręcznie;
  • połączeniom (powiązaniom) w sieci nadaje się charakterystyki, wynikające z zadania postawionego analitykowi. Charakterystyki mogą być zarówno ilościowe, jak i jakościowe. Należy jednak przestrzec przed przedstawianiem wszystkich cech istotnych z punktu widzenia problemu, w formie ilościowej. Wyjaśnimy to na przykładzie połączeń (powiązań) między ludźmi i dla uproszczenia charakteryzujemy je tylko dwoma parametrami: silny-słaby i dominujący-podrzędny-równy. Zasadniczo pierwszy parametr może być mierzalny. Drugi jest trudny do oszacowania. Niemniej jednak w wielu programach komputerowych, w wielu podręcznikach proponuje się konwersję parametrów jakościowych, na parametry ilościowe. Odbywa się to przypisując cechom odpowiednie wartości np. dominujący +1, równy 0, podrzędny -1. Wydaje się to możliwe, ale niekiedy jest absolutnie bezcelowe. W zasadzie można przyjąć, że sensowne przełożenie na formę ilościową można stosować tylko przy tych cechach, które można obliczyć za pomocą czterech podstawowych działań arytmetycznych lub bardziej złożonych metod matematyki wyższej. Jest jednak problem, który uświadamiają sobie matematycy, że takie wyliczenie sztucznie stworzonych skal liczbowych dla charakterystyk jakościowych w wielu przypadkach zniekształcają ich obraz i są nieprzydatne dla praktycznego wykorzystania. Na przykład porównywanie samochodów i psów nie ma sensu;
  • Definiuje się węzły sieci, obiekty o największej liczbie połączeń, charakteryzujących się najważniejszymi cechami, wyliczonymi zarówno pod względem ilościowym, jak i ocenionymi pod względem jakościowym.

Analiza sieciowa pozwala ująć analizowany problem całościowo i jest kolejną metodą, którą można zaliczyć do metod strukturyzacji, czyli przedstawienia złożonych systemów w postaci dostępnej do zrozumienia ich funkcjonowania. W sieciowej analizie wywiadowczej naturalnie konieczne jest zidentyfikowanie siatki połączeń (powiązań), jej węzłów, a przede wszystkim charakterystyk tych węzłów. Następnie, jak zwykle, należy zinterpretować otrzymany obraz w odniesieniu do zadania wywiadowczego pod względem takich parametrów, jak szanse, korzyści, zagrożenia, przeszkody, ryzyka itp.

Wśród wielu wykorzystywanych obecnie programów komputerowych, umożliwiających analizę sieciową, można wymienić program Maltego 3.0 (odpowiedni dla metod wywiadu gospodarczego), a także program Sentinel Visualizer.

Metoda analizy powiązań. Analiza powiązań (analiza grafów) jest techniką analizy danych używaną do oceny relacji (połączeń) między obiektami (węzłami). Połączenia (relacje) mogą być identyfikowane i analizowane pomiędzy różnymi typami obiektów (węzłów), takich jak: organizacje, osoby, transakcje czy zdarzenia. Analiza powiązań (połączeń) jest jedną z podstawowych metod wykorzystanych do wykrywania przestępstw i działalności przestępczej (wykrywanie oszustw, zwalczanie terroryzmu, przeciwdziałanie praniu pieniędzy, analiza zorganizowanych grup przestępczych czy analiza wywiadowcza), analizy bezpieczeństwa informatycznego, optymalizacji wyszukiwarek i badań medycznych.

Analiza powiązań stanowi istotę każdej czynności dochodzeniowej. Jest to rodzaj połączenia analizy przyczynowo-skutkowej z analizą sieci złożonych. Nieświadomie używają jej nawet zwykli detektywi, którzy nie znając metod analitycznych, stosują intuicyjnie coś, co nazywamy zdrowym rozsądkiem. W rzeczywistości każde dochodzenie jest identyfikacją, tj. ustanowieniem związku konkretnej osoby lub grupy osób z danym wydarzeniem, z określonych powodów. Detektywi nazywają te związki dowodami. Jak zauważył RAND[18]: „Wiele metod analitycznych, jeśli się im dobrze przyjrzeć – to oszlifowany i uporządkowany zdrowy rozsądek”. W stosunku do metody analizy powiązań stwierdzenie to odnosi się w całej rozciągłości.

W metodzie tej każdy przedmiot/obiekt interesujący analityka w związku z postawionym zadaniem wywiadowczym jest „wiązany” (identyfikowany) z wszystkim tym, co jest ważne ze względu na rozwiązanie tego zadania. Analiza powiązań odbywa się z wykorzystaniem kilku nw. działań:

  • Definiuje się klasy obiektów, które będą zaangażowane w proces identyfikacji powiązań. Zilustrujmy to przykładem. Chcemy znaleźć związek między daną osobą, a konkretnym wydarzeniem. W takiej sytuacji wydzielamy następujące klasy obiektów: zdarzenia, firmy, osoby, miejsca, czas, przedmioty itp. Oczywiście w każdej klasie powinno znaleźć się kilku jej przedstawicieli. Liczba przedstawicieli w klasie, czyli jej wymiar, będzie zależeć od tego, czy praca jest wykonywana ręcznie, czy przy użyciu programów komputerowych;
  • ustanawia się powiązania między obiektami należącymi do różnych klas. Na tym etapie dokonuje się identyfikacji powiązań pomiędzy przedstawicielami interesującej nas (w związku z realizowanym zadaniem wywiadowczym) klasy, np. człowieka, z innymi klasami – zdarzeniami, miejscami, czasem itp.;
  • ujawniane są połączenia wewnątrz klas.

W wyniku takiego podejścia następuje identyfikacja obiektu rozpoznania wywiadowczego według interesujących nas cech oraz ustanawiane są wszystkie niezbędne powiązania. Najlepszą literaturą do zrozumienia praktycznego zastosowania analizy powiązań jest losowo wybrane kilka powieści Conana Doyle’a o Sherlocku Holmesie. Nie bez powodu od ponad 100 lat są one wykorzystywane nie tylko w szkoleniu analityków policyjnych, ale także analityków wywiadu i analityków politycznych. Analizę powiązań można przeprowadzić z wykorzystaniem np. darmowej bazy danych CronosPro.

Literatura:

  1. Е. Ларина. Чем отличается разведанализ от бизнес-анализа, http://ci-razvedka.ru/Elena-Larina-Razvedanaliz-i-Biznesanaliz.html
  2. Szynkowski, Ramy, które pomagają. Analiza morfologiczna, http://www.placet.pl/index.php?mod=Leksykon&act=View&id=956&r=2&tyt=Metoda%20morfologiczna
  3. Martynowicz, Dyskretny urok analizy wywiadowczej, https://fundacjapoint.pl/2016/02/dyskretny-urok-analizy/
  4. Optymalna liczba pracowników w firmie wg teorii Dunbara. https://poradnikprzedsiebiorcy.pl/-liczba-pracownikow-w-firmie-co-wiesz-o-liczbie-dunbara
  5. Metoda „5 why”, https://www.system-kanban.pl/definicja/metoda-5-why/
  6. Dawid Borowski, Anna Niedźwiedź, Analiza systemowa, https://mfiles.pl/pl/index.php/Analiza_systemowa
  7. Robertson, S. Robertson, Pełna analiza systemowa, Wydawnictwo naukowo-techniczne
  8. Stabryła, Zarządzanie projektami ekonomicznymi i organizacyjnymi, PWN, Warszawa 2006

Autorzy: radca prawny Robert Nogacki, płk rez. dr inż. Krzysztof Surdyk

Profesjonalny Wywiad Gospodarczy „Skarbiec” Sp. z o.o.

[1] Re-engineering – to koncepcja biznesowa polegająca na wprowadzaniu radykalnych zmian w procesach biznesowych. Celem zmian jest osiągnięcie maksymalnej efektywności organizacji oraz redukcja kosztów.

Koncepcja re-engineeringu została opublikowana przez Michaela M. Hammera w 1990 r. w Harvard Business Review. Wspólnie z Jamesem A. Champy w 1993 r. napisali książkę „Re-engineering the corporation: A manifesto for business revolution”, która sprzedała się w ponad 2,5 mln egzemplarzy i była ponad rok na liście bestsellerów New York Times. Re-engineering nie podaje gotowych recept postępowania. Jest to metoda kosztowna, więc zmian należy dokonywać tylko wtedy, gdy wskazuje na to rachunek ekonomiczny.

[2] Big data – termin odnoszący się do dużych, zmiennych i różnorodnych zbiorów danych, których przetwarzanie i analiza jest trudna, ale jednocześnie wartościowa, ponieważ może prowadzić do zdobycia nowej wiedzy.

[3] Repozytorium (łac. repositorium) – miejsce uporządkowanego przechowywania dokumentów, z których wszystkie przeznaczone są do udostępniania. Dziś termin stosowany jest również w odniesieniu do najrozmaitszych zasobów cyfrowych (baz danych, zbioru pakietów czy kodów źródłowych), np. w Internecie.

[4] SAP SE (wcześniej SAP AG, niem. Systeme, Anwendungen und Produkte in der Datenverarbeitung, ang. Systems Applications and Products in Data Processing) – niemieckie przedsiębiorstwo informatyczne założone w 1972 r. z siedzibą w Walldorf w Badenii-Wirtembergii, będące dostawcą oprogramowania biznesowego ERP (ang. Enterprise Resource Planning). SAP był pionierem w dziedzinie oprogramowania ERP, dzięki czemu uzyskał i utrzymał rolę lidera na rynku. Przez wiele lat głównym produktem SAP był system SAP R/3 obejmujący: bazy danych oraz serwery aplikacji i klienta.

[5] Cloud Technologies – warszawska spółka założona w 2011 roku przez Piotra Prajsnara. To jedna z największych w Europie firm gromadzących, przetwarzających i sprzedających dane o aktywności i preferencjach Internautów. Firma stworzyła m.in. platformy DMP (ang. Data Managment Platform) – Behavioralengine.com i OnAudience.com, przetwarzające 5 TB informacji i monitorujące 0,5 mln witryn dziennie, a także przetwarzające ponad 9 mld profili internautów.

[6] Benchmarking (badania porównawcze lub analiza porównawcza) – praktyka stosowana w zarządzaniu, polegająca na porównywaniu procesów i praktyk stosowanych przez własne przedsiębiorstwo, ze stosowanymi w przedsiębiorstwach uważanych za najlepsze w analizowanej dziedzinie.

[7] Robin Dunbar – amerykański antropolog, badał specyfikę trwałych więzi społecznych – czyli takich, których efektem są dłuższe relacje między osobnikami je tworzącymi. Osobnikami, ponieważ Dunbar oprócz ludzi, badał również więzi tworzone przez niektóre zwierzęta, szczególnie z rzędu naczelnych. Badania pozwoliły mu na opracowanie wartości, która w antropologii nazywana jest właśnie od jego nazwiska liczbą Dunbara. Liczba Dunbara określa liczbę trwałych więzi, w jakie maksymalnie jest w stanie wejść przedstawiciel danego gatunku. Dla człowieka liczba Dunbara wynosi 148. Oznacza to, że człowiek jest w stanie podtrzymywać relacje ze 148 innymi przedstawicielami jego gatunku. Przekłada się to na fakt, że w grupach o maksymalnej liczebności 148 (w przybliżenia 150) członków funkcjonuje się nam najlepiej. Za wszystko to odpowiedzialna jest budowa naszego mózgu.

[8] Neuropsychologia – dziedzina psychologiczna zajmująca się badaniem i opisywaniem związków zachodzących między układem nerwowym a procesami poznawczymi, głównie z perspektywy klinicznej, analizując konsekwencje uszkodzenia mózgu człowieka. Jest to nauka z pogranicza medycyny i psychologii.

[9] Rozumowanie racjonalne, „rozważne”, umyślne, świadome, oparte na regułach (ang. rational, deliberative, rule-based) – rodzaj rozumowania, które charakteryzuje się świadomością i kontrolą nad przeprowadzanymi w ramach niego operacjami myślowymi. Z operacjami tymi wiąże się przy tym konieczność podjęcia wysiłku oraz powolność. Niski jest tu również udział afektu (w tym zarówno emocji, jak i uczuć bez emocji). W ramach rozumowania racjonalnego istnieje możliwość przetwarzania naraz tylko ograniczonej liczby informacji, a samo to rozumowanie operuje na ogólnych regułach, symbolach, słowach i liczbach.

[10] Holizm (od gr. holos – całość) – pogląd (przeciwstawny redukcjonizmowi), według którego wszelkie zjawiska tworzą układy całościowe, podlegające swoistym prawidłowościom, których nie można wywnioskować na podstawie wiedzy o prawidłowościach rządzących ich składnikami. Całości nie da się sprowadzić do sumy jej składników. Pojęcie wprowadził Jan Smuts, południowoafrykański polityk, we wczesnych latach 20. XX wieku.

[11] Metoda brutalnej siły (Atak brute force) – technika łamania haseł lub kluczy kryptograficznych polegająca na sprawdzeniu wszystkich możliwych kombinacji. Jest to prosta metoda pozwalająca w teorii na odgadnięcie każdego klucza. Metoda ta ma jednak dużą złożoność obliczeniową, w związku z czym dla odpowiednio długich kluczy złamanie klucza tą metodą jest praktycznie niemożliwe.

[12] Logika Arystotelesa – Arystoteles uprawiał przede wszystkim filozofię, logikę traktował jako narzędzie (stgr. ὄργανον organon) używane do prowadzenia sporów retorycznych głównie z sofistami, a także umożliwiające wyciąganie wniosków za pomocą sylogizmów co było pomocne w zdobywaniu wiedzy naukowej. Logika nie była traktowana, jako nauka ani jako system, jednak Arystoteles dał podstawy do rozwoju logiki, jako odrębnej dyscypliny badawczej, rozwijając takie zagadnienia jak: definiowanie, klasyfikowanie logiczne, wnioskowanie indukcyjne, czy pojęcie dowodu. Podał także trzy zasady, nazywane czasem najwyższymi prawami myślenia: zasadę tożsamości, zasadę sprzeczności oraz zasadę wyłączonego środka.

[13] Metoda 5 dlaczego (z ang.: 5 Whys, 5W) – jest jedną z metod pozwalających na wykrywanie przyczyn problemów (lub defektów). Jest to zasada, którą stosujemy w celu ustalenia podstawowej przyczyny problemu. Zadawanie kilku pytań „Dlaczego?” pozwala dojść do źródła zakłóceń, gruntownie zbadać ich przyczynę i skupić się na ich skutecznym rozwiązywaniu. Dzięki zadawaniu pytań „Dlaczego?” problem staje się bardziej zrozumiały, przez co podstawowa przyczyna jego powstania jest łatwiejsza do zidentyfikowania i wyeliminowania. Analiza 5 Whys pozwala odpowiedzieć na pytania: Dlaczego powstał problem? Dlaczego go nie zauważyliśmy? Jak go rozwiązać?

[14] Teoria ograniczeń – popularna metodologia zarządzania systemami w różnych działaniach, opracowana w latach 80. przez Eliyahu Goldratt i oparta na wyszukaniu i zarządzaniu kluczowym ograniczeniem systemu, które determinuje skuteczność działania całego systemu. Główną cechą tej metodologii jest to, że podejmując wysiłki w celu zarządzania bardzo małą liczbą aspektów systemu, uzyskuje się efekt, który znacznie przewyższa wynik jednoczesnego oddziaływania na wszystkie lub większość obszarów problemowych systemu (jednocześnie lub kolejno). Istota teorii ograniczeń opiera się na identyfikacji tego ograniczenia i zarządzaniu nim w celu zwiększenia wydajności w osiąganiu wyznaczonego celu (w przypadku przedsiębiorstw przyspieszenie i wzrost generowania zysków).

[15] Fraktal – figura geometryczna, której małe fragmenty oglądane w powiększeniu wyglądają tak samo jak cała figura.

Struktura fraktalna – założeniem budowy tej struktury jest maksymalna decentralizacja zarządzania poprzez wydzielenie jak największej liczby samodzielnych jednostek organizacyjnych (np. centra kosztów, centra zysku, centra rozwoju). Współpraca pomiędzy tymi jednostkami przebiega w partnerskim układzie: dostawca-odbiorca (klient). Taki układ prowadzi także do osłabienia hierarchicznych więzi pionowych. Naczelne kierownictwo koncentruje się na formułowaniu strategii.

[16] W starożytności i średniowieczu mianem dialektyki określano głównie sztukę prowadzenia dyskusji i dochodzenia do prawdy przez ukazywanie sprzeczności w sposobie myślenia rozmówcy lub przez obalanie zaprzeczeń dowodzonych tez (Sokrates , Platon , Arystoteles , Abelard). W czasach nowożytnych dialektykę pojmowaną jako teorię bytu, ukazującą rozwój rzeczywistości w postaci procesu ścierania się i jednoczenia przeciwieństw, wyznawali Giordano Bruno oraz klasycy filozofii niemieckiej, jak Schelling i Hegel. Dialektykę heglowską przejął i znacząco rozwinął Karol Marks, tworząc z niej teorię rozwoju rzeczywistości materialnej i społecznej oraz podstawę wszelkich projektów ich przekształcania.

[17] Hegel sformalizował dialektykę w postaci filozoficznych praw rozwoju i oparł ją o wcześniejsze spostrzeżenia Heraklita, a zwłaszcza pierwotne „Panta rei” – wszystko płynie i „Nie można wejść dwa razy do tej samej rzeki”. Prawa rozwoju według Hegla, to: prawo przechodzenia zmian ilościowych w jakościowe; prawo jedności i walki przeciwieństw; prawo negacji negacji (podwójnej negacji).

[18] RAND Corporation (ang. Research ANd Development) – amerykański think tank i organizacja badawcza non-profit, pierwotnie sformowana dla potrzeb Sił Zbrojnych Stanów Zjednoczonych. Założona 14 maja 1948 roku w Santa Monica w Kalifornii na bazie rozpoczętego w końcu 1945 roku wojskowego Projektu RAND. W późniejszym okresie organizacja pracowała także dla innych organizacji rządowych i komercyjnych. Obecnie RAND posiada około 1600 pracowników w USA i w Europie. Wedłg niektórych nazwa RAND jest skrótowcem od Research ANd Development (badania i rozwój). Korporacja RAND jest znana z dużego wkładu w naukę, zwłaszcza w metody ilościowe, na polu m.in. badań operacyjnych, rozwoju badań nad sztuczną inteligencją czy Internetu. Obecnie RAND prowadzi badania na tak różnych polach jak obronność i terroryzm, stosunki międzynarodowe, edukacja, czy zdrowie publiczne.

NAJNOWSZE ARTYKUŁY

POLECAMY

forex

Wpływ epidemii Covid-19 na gospodarkę – komentarz Grzegorza Maliszewskiego

0
W tym tygodniu publikowane będą kolejne dane z gospodarek rozwiniętych, wskazujących na skalę załamania koniunktury w następstwie epidemii koronawirusa. W tym kontekście istotne będą wskaźniki koniunktury w USA i strefie euro. Oczekiwać można dalszego...
2

W II kwartale globalny PKB może spaść nawet o 15 proc. w ujęciu rocznym....

0
W marcu wskaźnik PMI – łącznie dla przemysłu i usług – w strefie euro odnotował rekordowy spadek do 31,4 pkt, podczas gdy jeszcze w lutym wyniósł 51,6 pkt. Dane te obrazują nastroje osób odpowiedzialnych za zakupy w firmach, co...
rozwoj

Tarcza Antykryzysowa: przykłady działań polityki podatkowej w innych państwach

0
Doświadczenia z kryzysu z 2008 roku pokazały, że instrumenty podatkowe mają istotną rolę w łagodzeniu skutków spowolnienia gospodarczego. Aktualne działania innych państw pozwalają stwierdzić, że polityka podatkowa ma i będzie mieć istotne znaczenie w...