+48 512 364 075

Historia wydajności pracy

Dariusz Lipski

Polybius w „The Histories” na 212 lat przed Chrystusem pisał o Archimedesie, „Jakże prawdziwe jest to, że jeden człowiek rozumny, posiadający właściwości potrzebne do danego przedsięwzięcia, pracujący z niezwykłą wydajnością wart jest tyle, co cały tłum ludzi”. Uczony, o którym mowa wynalazł między innymi sposób rzucania z maszyn wielkich głazów w nieprzyjacielskie okręty, budował on również żurawie z opuszczanymi hakami, za pomocą, których przewracano i niszczono okręty nieprzyjacielskie [2]

Pierwsze naukowe wzmianki na temat produktywności w literaturze światowej przypisywane są Adamowi Smithowi, który w roku 1776 w „An inquiry into the nature and causes of the wealth of nations” zauważył, że „roczny produkt każdego narodu nie może wzrosnąć w swej wartości w inny sposób, niż tylko poprzez wzrost liczby produktywnych pracowników lub przez wzrost ich siły produkcyjnej” [4]

W połowie XIX wieku zaczęło się rozwijać podejście uważające czas jako kluczowy parametr w zarządzaniu produkcją. Zaczęto kontrolować czas pracy pracowników ich przyjścia i wyjścia z pracy, ich czas obecności oraz ilość wykonanej pracy w danym czasie. Podjęto też pierwsze próby normalizacji czasu wykonywanych operacji.

Konkurencja i wydajność w USA

Okres rewolucji przemysłowej był bardzo trudnym czasem dla fabrykantów i postawił przed nimi wiele wyzwań z zakresu zarządzania produkcją jak i etyki zarządzania produkcją o czym mówi m.in. amerykańska ustawa Shermana z 1890 [5] roku opisująca reguły uczciwej konkurencji, wzmagająca wydajność pomiędzy firmami. W oryginalnym sformułowaniu celu tego aktu prawnego powiedziano, że chodzi o działania, które „uniemożliwiają blokowanie pełnej i wolnej konkurencji” oraz takich, które „przerzucają koszty na konsumenta”. Większość krajów świata nadal nie dysponuje ta niezbędną podstawą wysokiej efektywności gospodarczej. Ustawa Shermana z 1890 roku wyjęła spod prawa „każdą umowę, trust, lub zmowę krępującą swobodę handlu”. Zdelegalizowała również monopole. Jej deklarowanym celem było „uniemożliwienie działań godzących w pełną i wolną konkurencję” i „przenoszących ciężar kosztów na konsumentów”. W 1911 roku Sąd Najwyższy orzekł, że Standard Oil oraz American Tabacco naruszyły ustawę Shermana, ustalając ceny poniżej kosztów produkcji i były winne tego, co w 1963 roku w orzecznictwie zyskało nazwę „rujnującego cenotwórstwa” (predatory pricing). W tym samym roku Sąd Najwyższy orzekł również, że ustawa Shermana zakazuje producentom ustalania cen, po których detaliści sprzedają ich produkty (utrzymywania ceny odsprzedaży). Takie praktyki uniemożliwiały detalistom konkurowanie za pomocą ceny. Ustawa Claytona z 1914 roku zakazywała ustalania cen i dyskryminacji cenowej (wrogich praktyk cenowych) w przypadkach, kiedy prowadziło to do osłabienia konkurencji. Ustawa o Federalnej Komisji Handlu z 1914 roku uznała za nielegalne „nieuczciwe metody konkurencji”. Początkowo sądy stosowały wąską interpretacje, jednakże do 1930 roku postępowania antymonopolowe ruszyły pełną parą. Federalna Komisja Handlu wszczęła w latach 1914-1930 zaledwie 43 sprawy o dyskryminację cenową i tylko 8 z nich zostało podtrzymanych przez sądy. Główne uderzenie, mające na celu skrócenie nadużywania pozycji rynkowej niektórych przedsiębiorstw w USA, datuje się jednak na rok 1930. Było ono odpowiedzią na wynaturzenia lat 1920 (czasy prohibicji i Al’a Capone) i Wielką Depresję lat 1930. Wobec powolnego postępu, Kongres w 1936 roku przyjął ustawę Robinsona – Patmana, wprowadzającą poprawki do ustawy Claytona, mające na celu wzmocnienie zapobiegania dyskryminacji cenowej, a w szczególności rujnującemu cenotwórstwu. Gwałtownie wzrosła liczba spraw o dyskryminację cenową. W latach 1936-1957 Komisja Federalna Handlu rozpatrzyła 429 postępowań przeciwko dyskryminacji cenowej, przy czym w 311 przypadkach nakazano ich zaniechanie. W 1952 roku nastąpiła profesjonalizacja federalnego systemu podatkowego. Wszyscy pracownicy urzędów podatkowych stali się funkcjonariuszami państwowymi, z wyjątkiem Szefa Dochodów Wewnętrznych. W końcu w 1982 roku Departament Sprawiedliwości formalnie przyjął praktykę wykorzystania wyrafinowanych narzędzi mikroekonomicznych (wskaźniki Herfindahla) przy pomocy, których sprawdzano czy proponowane fuzje i zakupy mogą prowadzić do powstania oligopolu. W czasach późniejszych Margaret Thatcher złamała grupowy interes górników, odwołując się do interesu konsumentów.

Naukowe zarządzanie przedsiębiorstwem

Bardzo barwnie zagadnienia i problemy wydajności opisywał H. Emerson, który od 1904 roku kierował własnym biurem doradztwa organizacyjnego. W tym czasie zaczął publikować pierwsze broszury i skrypty, gdyż szereg uniwersytetów i politechnik amerykańskich zapraszało go do prowadzenie wykładów. Kiedy w 1910 roku pewna amerykańska spółka kolejowa chciała podnieść taryfy przewozowe, komisja międzystanowa została poproszona o przebadanie tego zamierzenia. Co ważne, w tamtych czasach 9 na 11 spółek notowanych na amerykańskiej giełdzie to były spółki kolejowe i stanowiły one największe przedsiębiorstwa Ameryki. Rozpoczął sie słynny proces, w którym jako ekspert wystąpił H. Emerson. Jego ekspertyza wykazała, że nieefektywne nakłady wynosiły w kolejnictwie Stanów Zjednoczonych około 1 mln dolarów dziennie. Na tej podstawie komisja nie uchwaliła podwyższonej taryfy. Na marginesie należy dodać, że podczas tego właśnie procesu doradca Organizacji Handlowych Wybrzeża Atlantyckiego L.D. Brandeis po raz pierwszy użyl określenia naukowe zarządzanie (scientific management) ustosunkowując sie do ekspertyzy Emersona. Emerson w 1931 roku przebywał także w Polsce i konsultował projekty warszawskiego metra.

W tym okresie naukowe zarządzanie produkcją zaczęło prezentować pismo „Industrial engineering”, gdzie publikowali Taylor, Gantt, Emerson i wielu innych, a pisali na podstawie doświadczeń, które zdobywali od wielu lat. Każdy z tych autorów inaczej przedstawiał swoje podejście do oceny wydajności pracy, ciekawie temat ten został ujęty przez Harringtona Emersona, który sformułował swoje „12 zasad wydajności pracy”, gdzie w 12 punktach próbuje przedstawić wszystkie problemy nurtujące ówczesne przedsiębiorstwa, aktualne nawet po upływie 100 lat. Emerson uczył się zarządzania razem z  Frederick’iem Winslow’em Taylor’em w Bethlehem Steel i mieli od samego początku zbieżne poglądy aczkolwiek ich szczegółowe zainteresowania zmierzały w innych kierunkach, Taylor szedł w kierunku normalizacji operacji i narzędzi (wynalazł m.in. stal szybkotnącą), a Emerson szedł w kierunku minimalizacji kosztów pracy.

Szli oni z duchem kapitalizmu, iż każdemu należy się tyle, ile wypracuje, ich koncepcja rozliczania czasu pracy i pracowników bazowała na wcześniejszych, o których Emerson wspomina że [3]:

„Podstawę do racjonalnego systemu nagród za wydajność położył F.A. Halsey, dając swój system płacy premiowej. Podług tego systemu gwarantuje się płacę za godzinę niezależnie od wykonanej roboty, a prócz tego wydaje się premię wysokości 1/3 powyższej płacy za czas oszczędzony w porównaniu z czasem ustalonym na podstawie poprzednich robót.”

Ważna w tym świetle okazywała się normalizacja której prekursorem był Taylor [3]:

„Jest wielką zasługą Taylora, że wskazał, iż przede wszystkim trzeba określić możliwie jak najdokładniej najwyższą granicę dobrej i szybkiej roboty w warunkach normalnych. Zadana robota powinna być tego rodzaju, aby robotnik mógł ją wykonać bez uszczerbku dla siebie, pracując przez wiele lat i aby przy tem usunięte były wszystkie straty. Taylor dał podstawy sprawiedliwego systemu premiowego, stosownego do każdej roboty i dla każdego człowieka. Grantt pierwszy rozwinął i zastosował schemat wynagradzania robotników, w którym była płaca za ilość czasu i oprócz tego płaca za jakość tego czasu – czyli za specjalne zadanie, dla którego wyznacza się czas bardzo starannie i dokładnie określony. Nagrody nie wydaje się, jeżeli czas oznaczony nie jest osiągnięty w zupełności.”

System ten ewoluował cały czas i do dzisiaj możemy obserwować jego mutacje [3]:

„Dalszy krok w usuwaniu wpływu wypadkowych i nieuniknionych wahań zrobili Playfair i Whiteford, znani doradcy w sprawach wydajności. Podług tego nowego schematu na rachunek robotnika zapisuje się wszystkie godziny jego pracy za pewien określony okres czasu , za miesiąc, tydzień itp. I odpisuje się z jego rachunku i opłaca wszystkie godziny, wyznaczone podług ustalonej normy. Premię wydaje się albo po wykonaniu roboty, albo co dzień, co miesiąc lub co jakiś dłuższy okres na podstawie stosunku między robotą rzeczywistą a normą ustaloną. Jeżeli robotnik pracował 250 godzin w miesiącu i wykonał robotę , na którą podług normy przypadało 250 godzin, czyli jego wydajność wynosiła 100%, to wtedy zarabia 20% premii, licząc wynagrodzenia podług taryfy. Jeżeli w tymże czasie wykona robotę, na którą wyznaczone było 300 godzin, to jego wydajność wynosi 120% i wtedy wydaje mu się premii 40% wynagrodzenia taryfowego.”

Dalszy rozwój podejścia zaproponowanego przez Harringtona Emersona zaproponowała Firma Toyota w swoim systemie zarządzania produkcją TPS.

Innym pomysłem na usprawnienie wydajności wg Harringtona Emmersona jest propozycja Methods Time Measurement (MTM) [1] gdzie w roku 1948 badacze optymalizacji procesów pracy, Harold B. Maynard, John L. Schwab i Gustave J. Stegemerten opracowali cały system sterowania procesami bazując na wydajności. Metodyka MTM została oficjalnie wprowadzona do przemysłu morskiego przez rząd pakietem ustaw i rozporządzeń w 1979 roku [13].

Henry Laurence Gantt

W 1917 roku generał Wiliam Crozier [2], ówczesny szef Departamentu Uzbrojenia po zapoznaniu się ze wskazanymi fabrykami w których H.L. Gantt zastosował swoje metod zaprosił go w charakterze doradcy  w kwestiach wytwórczości do frankfordskiej zbrojowni, a niezwłocznie po ogłoszeniu wojny do Departamentu Uzbrojenia. Ponieważ zbrojowniom i innym zakładom mechanicznym dano olbrzymie zamówienia na broń i amunicję niezmiernie trudno było mieć jasny obraz przebiegu ich wykonania. Ilość zamówień szybko powiększała się z setek do milionów a wczesne przedstawienie znaczenia tych ilości i czasu potrzebnego dla ich wyprodukowania było wprost niemożliwe. Gantt zajął się opracowaniem systemu wykresów, które pozwoliłyby porównać faktyczne terminy wykonania z obietnicą ich wykonania. W ciągu 1918 roku wykresy były stosowane w zbrojowniach Stanów Zjednoczonych, przy fabrykacji hydroplanów i innych państwowych instytucjach, jak Shipping Board itd.

W swym dziele „Organizacja dla pracy” z 1917 roku Gantt przytacza list profesora Uniwersytetu w Cincinnati do generała C.B. Kheeler’a, ówczesnego szefa artylerii gdzie omawia korzyści oddane przez wykresy Gantta Departamentowi Uzbrojenia. Mniej więcej na pół roku przed tym listem generał John T. Thompson – wówczas pułkownik i Szef Sekcji Broni Małokalibrowej – z ogromnym entuzjazmem zaczął stosować wykresy Gantta, zaś pod koniec wojny otrzymał „Order Zasługi’. Po otrzymaniu tego orderu generał Thompson przysłał odpis reskryptu Ganttowi pisząc „ogromna część nagrody za spełnienie tego zadania wielkiej wojny należy się H. L. Ganttowi i jego pomocnikom, ogólnie kontrolujące wytwórczość wykresy Gantta były moim kompasem”. Z podobnym uznaniem wyraża się o wykresach Gantta L.P. Alford w artykule do „Industrial Management” – „Master Control of American Industries for War – Man or Method?”.

W literaturze polskiej pojęcie produktywności, a właściwie produkcyjności pojawia w pracy prof. E. Hauswalda pt „Przemysł”, wydanej w 1926 roku. Mianem produkcyjności czyli dzielności wytwórczej, albo krócej wydajnością, określa on „…ilość wyrobów (jednostek) wytworzonych w danych warunkach i w określonym czasie …” E.Hauswald wprowadza również pojęcie produktywizmu jako zbioru poglądów i dążeń, które:

  • stawiają produkcję na pierwszym miejscu wśród innych rodzajów działalności ludzkiej, mającej na celu dobro społeczeństwa;
  • badają prawa rozwoju wytwórczości w danych warunkach;
  • wyszukują źródła strat i błędów;
  • wprowadzają z życie takie zasady, metody i zarządzenia, które sprzyjają jak największemu wzrostowi „dzielności wytwórczej”  i najwyższemu stopniowi indywidualnego i zbiorowego dobrobytu.

Zygmunt Rytel

Urodzony 24.04.1880 w Równem, od roku 1925 czynnie uczestniczy w pracach Instytutu Naukowej Organizacji, przedstawiając swe referaty na I i II Zjeździe Organizacji. W szczególności referat Z.Rytla przedstawiony na II Zjeździe Organizacji, traktujący o esogramach (rys. 5), nosił znamiona oryginalności i zapewnił jego autorowi przejście do historii polskiej myśli organizatorskiej. U podstaw techniki esogramów leży pojęcie tzw. nasilenia działalności. Przez nasilenie działalności rozumie się liczbę zużytych godzin pracy w danym okresie. Zarówno warunki pracy zespołowej jak i okoliczności , iż w toku działania zasoby są włączane stopniowo, sprawiają , że nasilenie działalności „w miarę jej rozwoju wzrasta, osiąga swój punkt szczytowy i następnie spada, aż do zakończenia działania”. Dla każdego działania można określić nasilenie wzorcowe, a następnie badać stosunek nasilenia rzeczywistego do nasilenia wzorcowego. Tego rodzaju wskaźnik skuteczności cząstkowej pozwala ocenić stopień zorganizowania działania i wykorzystania czasu kalendarzowego. Znajomość nasilenia wzorcowego pozwala na określenie niezbędnej liczby okresów (godzin, dni, tygodni) dla danego działania. Stosunek ilości okresów rzeczywistych do ilości okresów niezbędnych przy wzorcowym nasileniu nazywa Rytel tzw. współczynnikiem obiegowym. Rozwijając analizę nasilenia działalności opracował Rytel tzw. esogramy, które stały się efektywnymi technikami organizowania w czasie złożonych przedsięwzięć, do dziś stanowiący podstawowy instrument planowania i kontroli wykonania produkcji. Esogramy po raz pierwszy zostały przez niego wdrożone do praktyki w zakładach budowy parowozów a stamtąd przeniknęły do przemysłu stoczniowego (poniżej przykład takiego esogramu).

Na ogół nakłady pracy możliwe do zastosowania są ograniczone, bądź też idzie o uzyskanie określonego wyniku użytecznego. W pierwszym przypadku chodzić będzie o maksymalizację wyniku użytecznego przy danych nakładach, a w drugim o maksymalizację nakładów przy danym wyniku użytecznym. Dla obydwu traktowanych alternatywnie przypadków, Rytel zaleca posługiwanie sie jako miernikiem oceny – skutecznością działania. W odniesieniu do wariantu pierwszego skuteczność określa sie przez odniesienie rzeczywistego wyniku do wyniku maksymalnego (wzorcowego). Tę postać skuteczności określa sie mianem wydajności. Natomiast jeśli będzie sie eliminować z rozważań wynik , przyjmując że jest on wielkością stałą to skuteczność można określić na drodze porównania nakładów minimalnych (wzorcowych) z nakładami rzeczywistymi. W tym ujęciu skuteczność nazywa Rytel oszczędnością.

Co więcej Rytel zaproponował swoisty cykl usprawnień organizatorskich w organizacji (Pierwowzór koła Deminga –PDCA później określanego jako koło DMAIC – SIX SIGMA).

Kilkadziesiąt lat później esogramy możemy odnaleźć w metodologii Project Management Institute (PMI) a dokładnie w narzędziu Earned Value Management (EVM). W Departamencie Obrony (DoD) USAok 1960 roku, EVM razem z koncepcją PERT narzucono jako sposób kontroli realizacji projektu dla podwykonawców rządowych, od tego czasu wiele odmian zaczęło się rozmnażać w różnych programach zamówień publicznych. W 1967 DoD (United States Department of Defense) ustalił zestaw 35 kryteriów, o nazwie Cost / Schedule Control System Criteria (C / SCSC) do rozliczania realizacji projektów. W 1970 i 1980 analiza metodą C / SCSC wzrosła, ale technika była często ignorowana, a nawet można było napotkać aktywny opór kierowników projektów zarówno rządu i przemysłu. C / SCSC często uważany był za narzędzie kontroli finansowej, które mogłoby zostać przekazane do analizy specjalistów.

W 1991 r. sekretarz obrony Dick Cheney anulował Program Navy-12 Avenger II ze względu na problemy z wydajnością wykryte przez EVM. To wskazuje, że EVM miało znaczenie dla Sekretarza Obrony. W 1990, wiele amerykańskich przepisów rządu zostało usunięte lub uproszczonych. Jednak EVM nie tylko przetrwał ruch reformatorski, lecz ponadto stał się silnie związany z tym ruchem reform. W szczególności od 1995 do 1998 r. kiedy to kryteria EVM zostały obniżone do 32 i przeniesione do przemysłu poprzez przyjęcie normy ANSI EIA 748 [5]. Wykorzystania EVM szybko rozszerzono poza US Department of Defense. Został przyjęty przez National Aeronautics and Space Administration [NASA], United States Department of Energy i kilka innych agencji kluczowych technologii. Wiele państw uprzemysłowionych zaczęło również wykorzystywać EVM w swoich programach zamówień publicznych. Narzędzie EVM zostało uwzględnione w PMBOK Guide pierwszej edycji w 1987 i rozszerzone w kolejnych edycjach. Dla budownictwa był jednym z pierwszych komercyjnych Międzynarodowych Standardów Sprawozdawczości Finansowej. Ściślejsza integracja EVM z praktyką zarządzania projektami przyspieszyła w 1990. W 1999 Performance Management Association połączyły się z Project Management Institute (PMI) by stać się pierwszą szkołą PMI, College of Performance Management. United States Office of Management and Budget zaczął wykorzystanie EVM we wszystkich agencjach rządowych, a także po raz pierwszy dla zarządzania niektórymi projektami  wewnętrznych (nie tylko dla wykonawców). EVM zyskała również większą uwagę spółek publicznych w odpowiedzi na Sarbanes-Oxley Act z 2002 roku.

Ciąg dalszy nastąpi…

Możliwość komentowania jest wyłączona.

Kontakt
Interesują Cię nasze szkolenia? Skontaktuj się z nami: tel.:+48 512 364 075 e-mail: szkolenia@octigo.pl Formularz kontaktowy

Biuletyn

 

Chcesz wiedzieć, o czym piszemy na blogu, co nas fascynuje, co nowego dzieje się w Octigo? Zapisz się na nasz biuletyn.

Wypełniając powyższy formularz, zgadzam się na przetwarzanie podanych danych do celów marketingowych przez firmę Octigo sp. z o.o. Twój e-mail będzie przechowywany wyłącznie w naszej bazie, w każdej chwili możesz wycofać zgodę na przetwarzanie Twoich danych, Twój e-mail nie jest udostępniany innym podmiotom, wysyłamy biuletyn e-mailowy nie częściej niż 1-2 razy w miesiącu.

 
 
Profil na Google+ PMI, PMBOK, PMP, PgMP are registered mark of the Project Management Institute, Inc.