Skazani na sukces

5/5 - (1 vote)

Czasy się zmieniają, a wraz z nimi również podejście do zarządzania. To, co jeszcze niedawno wydawało się niemożliwe, a wręcz niewłaściwe, stało się dziś zupełnie naturalne i nie budzi już zdziwienia. Jedną z wyraźniejszych tendencji jest coraz młodsza kadra zarządzająca w przedsiębiorstwach. Dziś nikogo nie dziwi trzydziestoparolatek pełniący funkcję menedżera. Młodsze osoby, niż jeszcze pięć lat temu, obejmują stanowiska dyrektorów generalnych i prezesów zarządów. Zjawisko to nie dotyczy tylko Polski, ale jest zauważalne na całym świecie. Czasami wywołuje pewne poruszenie fakt, gdy stanowisko prezesa zarządu, jak miało to miejsce w przypadku giełdowej spółki Muza S.A., obejmuje dwudziestopięciolatek (pomijając tzw. prezesów jedno- lub kilkuosobowych firm), jednak nawet taki szok szybko mija, jeśli nowy lider udowodni, że jest odpowiednią osobą na właściwym stanowisku.

Cechy dobrego menedżera

Dobry menedżer posiada szereg umiejętności i cech, które pozwalają efektywnie zarządzać zespołem i osiągać cele organizacji. Przede wszystkim potrafi komunikować się w sposób jasny i zrozumiały, zarówno przekazując informacje, jak i słuchając swoich pracowników, co umożliwia efektywne rozwiązywanie problemów. Zdolności przywódcze są równie istotne – dobry menedżer potrafi motywować, inspirować i angażować zespół w realizację celów, wyznaczając im jasne kierunki działania.

Decyzyjność jest kolejną kluczową cechą – menedżer musi umieć podejmować decyzje w oparciu o dostępne informacje, biorąc pod uwagę ryzyko i korzyści. Zdolność do elastycznego dostosowywania się do zmieniających się warunków oraz reagowania na nieprzewidywalne sytuacje to również ważna cecha. Empatia, czyli umiejętność rozumienia potrzeb i obaw pracowników, pozwala budować pozytywne relacje i zaufanie w zespole.

Organizacyjność to cecha, która pozwala skutecznie planować i priorytetyzować zadania, zarządzając czasem w taki sposób, by cele były realizowane efektywnie i w terminie. Menedżer musi także wiedzieć, kiedy i komu delegować zadania, rozwijając tym samym umiejętności członków zespołu i zwiększając efektywność pracy. Umiejętność rozwiązywania konfliktów jest niezbędna, aby utrzymać harmonię w zespole i zapewnić konstruktywne rozwiązania problemów interpersonalnych.

Orientacja na wyniki jest istotna, ponieważ menedżer musi skupiać się na realizacji celów organizacji, dbając jednocześnie o to, by cele indywidualne pracowników były spójne z misją firmy. Zdolności analityczne pomagają podejmować świadome decyzje, oparte na analizie danych i sytuacji, identyfikując obszary do poprawy. Wreszcie, zaangażowanie w rozwój zespołu jest niezbędne – inwestowanie w pracowników, oferowanie szkoleń i wsparcie w ich karierze, aby rozwijali swoje umiejętności i podejmowali nowe wyzwania.

Dobry menedżer to osoba, która łączy te cechy, tworząc zespół zmotywowany, efektywny i zaangażowany w osiąganie wspólnych celów.

Kim są te młode wilki, które podejmują się odpowiedzialności za sterowanie przedsiębiorstwem? Już dawno zauważono, że każdy człowiek to zupełnie inny świat. Tak samo jest w przypadku współczesnych menedżerów. Niemniej jednak, istnieją pewne cechy, które musi posiadać każdy z nich, aby z sukcesem pełnić powierzoną rolę. Często zakłada się, że wystarczy zdobyć wysokiej jakości wykształcenie, na przykład ukończyć studia Master of Business Administration, by stać się odpowiednią osobą na stanowisko kierownicze. Oczywiście edukacja ma znaczenie, jednak nie wszyscy z wykształceniem wyższym, nawet po kierunkach związanych z organizowaniem i zarządzaniem, obejmują stanowiska menedżerskie. To oznacza, że rynek pracy poszukuje osobowości.

Współcześni młodzi menedżerowie to osoby pełne determinacji. Ich przeszłość rzadko jest usiana doskonałymi wynikami w nauce. Często odnosili sukcesy na innych polach, jak sport. Sport ujawnia zdolności przywódcze. Silna wola zwycięstwa, świadomość rywalizacji oraz wyzwalana energia pozwalają im osiągać sukcesy. Cechują się także zdolnością do pracy w warunkach ciągłej rywalizacji, co jest niezbędne do stawiania sobie coraz wyższych celów i przełamywania własnych słabości. Dzięki temu potrafią patrzeć na różne sytuacje jako wyzwania, a nie problemy.

Różnorodność

Doświadczenie to kolejny kluczowy element. Aby skutecznie zarządzać przedsiębiorstwem, należy rozumieć mechanizmy, które nim rządzą. By to osiągnąć, niezbędne jest podejście systemowe – umiejętność wykorzystywania wiedzy z różnych dziedzin przy podejmowaniu decyzji. Tego można się nauczyć jedynie w praktyce – zdobywając doświadczenie w różnych działach organizacji: sprzedaży, logistyce, finansach. Ci, którzy koncentrują się wyłącznie na jednej dziedzinie, nie będą dobrymi menedżerami, nawet na niższych szczeblach zarządzania.

Jedną z najistotniejszych umiejętności jest zarządzanie ludźmi, czyli bycie liderem. Dobry menedżer musi być osobowością empatyczną. Powinien umieć wczuwać się w sytuację innych, starać się zrozumieć swoich pracowników i zawsze mieć dla nich czas. Musi być sprawiedliwy, czasem twardy, w innych sytuacjach o przyjaznym usposobieniu, jeśli chce budować autorytet. Zaufanie ludzi do niego jest fundamentem funkcjonowania przedsiębiorstwa. Dopiero wtedy jego zespół pójdzie za nim, tworząc silną grupę.

Oczywiście, to tylko niektóre z cech, które wyróżniają współczesnych młodych menedżerów. Problem jest znacznie bardziej złożony, ale te aspekty wydają się najbardziej wyraźne. Są one specyficzne dla menedżerów nowej generacji, którzy potrafią poradzić sobie ze złożonością współczesnego świata, który staje się coraz bardziej skomplikowany. Jego opanowanie wymaga ogromnych pokładów energii, dlatego wiek kadry zarządzającej wciąż się obniża.

image_pdf

Lean versus ERP

5/5 - (1 vote)

W tradycyjnym Manufacturing Resource Planning (MRP II, narzędzie planowania w większości obecnych systemów ERP), wytwórcy opierają swoją produkcję na prognozach sprzedaży. Lean Manufacturing – nazywany również Flow – przeciwstawia się temu dopasowując w sposób ciągły poziom produkcji do aktualnego zapotrzebowania klientów.

Lean Management i ERP (Enterprise Resource Planning) to dwa podejścia stosowane w zarządzaniu organizacjami, które mają na celu poprawę efektywności, jednak różnią się zarówno celami, jak i metodologią. Choć można je traktować jako komplementarne, każde z nich koncentruje się na innych aspektach organizacyjnych procesów.

Lean Management to filozofia oparta na uproszczeniu procesów i eliminacji marnotrawstwa. Skupia się na optymalizacji przepływu pracy, redukcji kosztów i poprawie jakości, przy jednoczesnym dostarczaniu maksymalnej wartości klientowi. Jest podejściem praktycznym, w którym kluczowe znaczenie mają narzędzia takie jak mapa strumienia wartości, Kanban, 5S czy Kaizen. Lean stawia na usprawnianie procesów, eliminację zbędnych działań i angażowanie pracowników w doskonalenie codziennej pracy. Jest to metoda, która przede wszystkim opiera się na ciągłym doskonaleniu i adaptacji w dynamicznie zmieniającym się otoczeniu biznesowym.

ERP to z kolei zintegrowany system informatyczny, który umożliwia kompleksowe zarządzanie zasobami organizacji. Głównym celem ERP jest automatyzacja i integracja różnych obszarów działalności firmy, takich jak finanse, logistyka, produkcja, sprzedaż czy kadry. Dzięki scentralizowanej bazie danych ERP pozwala na zbieranie, przetwarzanie i analizowanie danych w czasie rzeczywistym, co zwiększa przejrzystość działań i ułatwia podejmowanie decyzji strategicznych. W przeciwieństwie do Lean, ERP koncentruje się na zarządzaniu informacjami i procesami poprzez technologię, a nie na bezpośrednim eliminowaniu marnotrawstwa.

Kluczowe różnice między Lean a ERP wynikają z ich podejścia i zastosowania. Lean to metodologia ukierunkowana na ludzi i procesy, promująca kulturę ciągłego doskonalenia oraz redukcję kosztów poprzez optymalizację pracy. ERP to natomiast rozwiązanie technologiczne, które wspiera zarządzanie poprzez automatyzację i integrację danych. Podczas gdy Lean bazuje na prostocie i minimalizmie, ERP wprowadza zaawansowane narzędzia informatyczne, które wymagają dużych nakładów finansowych i czasowych na wdrożenie.

Podobieństwa obu koncepcji tkwią w ich wspólnym celu – poprawie efektywności organizacji. ERP może wspierać wdrażanie Lean, umożliwiając monitorowanie kluczowych wskaźników wydajności (KPI) oraz ułatwiając przepływ informacji między działami. Jednocześnie Lean może pomóc w uproszczeniu procesów przed wdrożeniem ERP, co zwiększa szanse na jego sukces i minimalizuje ryzyko kosztownych błędów.

Lean Management i ERP to dwa różne, ale wzajemnie uzupełniające się podejścia. Lean skupia się na poprawie procesów i eliminacji marnotrawstwa, podczas gdy ERP wspiera organizację poprzez integrację i automatyzację zarządzania. Organizacje, które łączą te dwa podejścia, mogą osiągać znaczące korzyści zarówno w kontekście operacyjnym, jak i strategicznym, wykorzystując zalety filozofii Lean i zaawansowanych technologii ERP.

Lean Management i ERP oferują różne, lecz wzajemnie uzupełniające się podejścia do zarządzania, które mogą być łączone w celu osiągnięcia synergii w organizacjach. Wprowadzenie Lean często służy jako krok przygotowawczy przed wdrożeniem ERP, ponieważ uproszczenie procesów i eliminacja marnotrawstwa sprawiają, że system ERP działa efektywniej. Z kolei ERP dostarcza narzędzi do monitorowania i analizy danych, które wspierają dalsze działania w duchu Lean.

Jednym z kluczowych wyzwań przy łączeniu tych dwóch koncepcji jest zrównoważenie ich różnorodnych wymagań. Lean wymaga elastyczności i adaptacji do zmieniających się warunków, podczas gdy ERP opiera się na ścisłej strukturze i standaryzacji procesów. Dobrze zintegrowane systemy ERP mogą jednak wspierać filozofię Lean poprzez umożliwienie lepszego planowania zasobów, redukcję zbędnych zapasów oraz szybszą reakcję na zmiany w zapotrzebowaniu klientów. Na przykład funkcje ERP, takie jak moduły planowania produkcji czy zarządzania relacjami z klientami (CRM), pozwalają na skuteczniejsze wdrażanie zasad Lean w skali całej organizacji.

Praktyczne zastosowanie obu koncepcji zależy od specyfiki firmy i branży. W środowiskach produkcyjnych Lean często służy do optymalizacji procesów na poziomie operacyjnym, takich jak eliminacja zbędnych kroków w linii produkcyjnej czy zmniejszenie czasu przestojów. ERP natomiast działa na poziomie strategicznym, dostarczając narzędzi do zarządzania globalnym łańcuchem dostaw, synchronizując różne działy i ułatwiając przepływ informacji między nimi. W organizacjach usługowych ERP może automatyzować zadania administracyjne, podczas gdy Lean koncentruje się na poprawie jakości obsługi klienta i skracaniu czasu realizacji usług.

Wdrażanie Lean i ERP wymaga odpowiedniego podejścia do zarządzania zmianą. Pracownicy powinni być zaangażowani w cały proces, aby zrozumieć korzyści płynące z obu metod i dostosować się do nowych procedur. Ważne jest również, aby zarządzanie na poziomie kierowniczym zapewniało spójność działań i odpowiednie priorytetyzowanie celów. Organizacje często napotykają trudności, takie jak opór przed zmianą, konieczność przeszkolenia pracowników czy wysoki koszt wdrożenia ERP, dlatego kluczowe jest staranne planowanie i wdrożenie.

Współczesne przedsiębiorstwa coraz częściej dostrzegają, że podejście Lean wzbogacone o narzędzia ERP pozwala na osiągnięcie lepszych wyników zarówno w perspektywie krótkoterminowej, jak i długoterminowej. Lean zapewnia efektywność operacyjną i kulturę ciągłego doskonalenia, podczas gdy ERP wspiera zarządzanie danymi i koordynację działań w całej organizacji. Taka kombinacja umożliwia firmom elastyczne reagowanie na zmieniające się warunki rynkowe, poprawę relacji z klientami oraz zwiększenie konkurencyjności w dynamicznym otoczeniu biznesowym.

Lean Management i ERP są narzędziami, które choć różne w swoich fundamentach, mogą wzajemnie się uzupełniać, gdy są odpowiednio wdrożone. Dzięki tej integracji organizacje mogą nie tylko zwiększyć efektywność operacyjną, ale także lepiej zarządzać swoimi zasobami, poprawiając jednocześnie wartość dostarczaną klientowi i wzmacniając swoją pozycję na rynku.

Koncept Toyoty stawia wyzwanie ERP (Enterprise Resource Planning)

Któż mógłby sobie wyobrazić, że ERP i jego poprzednik MRP – trzon produkcyjnych systemów informatycznych przez ostatnie 30 lat – mógłby któregoś dnia być oceniany jako wróg Lean Manufacturing? A jednak to prawda. Naprzeciw siebie stanęli przeciwnicy:

  1. System informatyczny do wspomagania zarządzania – Enterprise Resource Planning (ERP) – zainstalowany w dziesiątkach tysięcy firm wytwórczych w ostatnich 10-ciu latach
  2. Lean Manufacturing – coraz bardziej popularna metodologia zarządzania zapoczątkowana w Japonii przez Toyota Motor Corp. i podchwycona w USA przez tysiące firm.

W tradycyjnym Manufacturing Resource Planning (MRP II, narzędzie planowania w większości obecnych systemów ERP), wytwórcy opierają swoją produkcję na prognozach sprzedaży. Lean Manufacturing – nazywany również Flow – przeciwstawia się temu dopasowując w sposób ciągły poziom produkcji do aktualnego zapotrzebowania klientów. Ten konflikt nie kończy się na sposobie określania poziomu produkcji. Lean kładzie nacisk na rewizję procesu produkcyjnego i późniejsze, ciągłe kontynuowanie jego usprawnień. W ERP nacisk jest na planowaniu. Ten poprzedni ma za cel wyeliminowanie całego marnowanego czasu, transportu i zapasów materiałowych; ten ostatni koncentruje się na śledzeniu transakcji i każdego kawałka materiału w obszarze produkcji.

Lean jest zorientowany na czynności procesowe; ERP opiera się na kolekcjonowaniu i przetwarzaniu danych. Jeden ma pracowników wykonujących czynności, które zwiększają wartość produktów; drugi oczekuje od nich rejestrowania danych i kodów kreskowych by śledzić zapasy i zaawansowanie robocizny. „ERP daje informacje, ale niekoniecznie zwiększa ostateczną wartość produktów firmy,” mówi Stephen McMahon, dyrektor oddziału Lean Manufacturing z Coleman Consulting Group, San Francisco. ” Możesz więcej czasu spędzić na kodowanie kreskowe niż na wytwarzanie produktów.” Ekspert produkcji Tom Grace z AMR Research Inc. dodaje, „Firmy nie poprawią efektywności wydziałów produkcyjnych stosując ERP.”

Dodaniem oliwy do ERP ognia jest sceptycyzm pracowników produkcji i biur korporacji na temat niezawodności danych MRP.” Większość ludzi nie wierzy raportom, które otrzymują,” mówi Stacy Alexander, kierownik procesu w Greencastle Metal Works Inc., która to firma zrezygnowała z MRP i zaadoptowała podejście Lean. „Po każdej kalkulacji MRP znajdowaliśmy 30 nieprawidłowych transakcji.” Wiele przedsiębiorstw produkcyjnych miało z tych powodów problem by przełknąć korporacyjny dyktat o używaniu ERP. „Nie jest niespodzianką, że zakłady opierają się wdrażaniu ERP; jeden krok w tym kierunku może zmarnować lata płynnej działalności,” napisał Grace w raporcie z lutego 1999 roku zatytułowanego „ERP and Flow: Status Quo Meets Its Replacement.” Niektórzy twierdzą, że te dwie koncepcje mogą koegzystować w tym samym przedsiębiorstwie; inni się z tym nie zgadzają, traktując je jak ogień i wodę.

„Systemy prognoz sprzedaży są marnowaniem czasu i są zwykle omylne,” mówi Tom Briatico, wiceprezydent i generalny dyrektor Maytag Co. oddziału Cleveland Cooking Products w Cleveland, Tenn. „Myślę, że ERP jest marnowaniem pieniędzy. Odchodzimy od ERP. Chcemy wyeliminować MRP ponieważ nie funkcjonuje. By proces był prawidłowy należy mu poświęcić cały czas i pełną koncentrację.” Konsultant McMahon dodaje, „Jednoczesne stosowanie systemów ERP i Lean naraża oba na niebezpieczeństwo porażki.” ERP staje się często ciężarem na wydziałach produkcyjnych. Problemy, które wprowadza – bądź zachowuje od czasów MRP – są zawarte w kompleksowych schematach montażowych (Bills of Material), w nieefektywnych przepływach procesów i niepotrzebnym kolekcjonowaniu danych. Wprowadzenie Lean do zakładu cierpiącego na przypadłości wywołane przez MRP oferuje bardzo potrzebne antidotum. „Flow zastępuje ERP na operatywnym poziomie produkcji i jednocześnie leczy bóle głów działu IT (Information Technology), który wprowadził ERP do fabryk,” pisze w swoim raporcie Grace.

Tak się stało ponieważ niektórzy producenci wydali miliony dolarów wprowadzając ERP do swoich firm bez uprzedniego przeprojektowania procesów wytwarzania. To jest tak jakby postawić wóz przed koniem, mówią eksperci. W odróżnieniu, mówi McMahon, ” Ja stawiam Lean na pierwszym miejscu, a później po usunięciu marnotrawstwa z procesów, standaryzuję je stosując ERP.” Klasycznym przykładem jest upłynnienie procesu projektowania, który jest wyjątkowo ważny dla prawidłowego funkcjonowania Lean Manufacturing.

Po co się spieszyć formalizując marnotrawstwo w procesach poprzez położenie na nich systemu ERP? Mimo to wielu producentów zrobiło to i w dalszym ciągu to robią, mówią konsultanci. Pytany ilu klientom chciało się przeprojektować ich procesy przed wdrożeniem systemu ERP, Roger Sherrard, kierownik marketingu i komunikacji z IBM Global Services, odpowiada, „Żaden. Ani jeden.” Firmy, które w pełni zastosowały zasady Lean Manufacturing stwierdziły, że korzystnym jest po prostu odrzucić MRP całkowicie. ” Stosowaliśmy MRP przedtem, ale zrezygnowaliśmy ponieważ tworzyło to wiele transakcji nie dodających wartości,” wyjaśnia Alexander z Greencastle. ” Obecnie nie tworzymy transakcji materiałowych i robocizny – nic. Nie używamy żadnych programów za wyjątkiem Microsoft Excel do zestawień materiałowych by wydawać części na produkcję.” Chambersburg, Pa., producent wyposażenia do ciągłych linii produkcyjnych, przeszedł całkowicie na system wytwarzania sterowany zapotrzebowaniem. „Jeśli twój proces jest prawidłowy to nie ma nic do śledzenia – to po prostu przebiega za szybko.”

Jedną z dróg do osiągnięcia prawidłowego procesu jest użycie któregoś z dostępnych na rynku produktów symulacyjnych, które mogą pokazać firmom jak zoptymalizować linie produkcyjne. Tecnomatix Technologies Ltd., którego USA biuro znajduje się w Novi, Mich., oferuje rodzinę wymyślnych informatycznych systemów inżynierskich. Przykładem jest moduł AnyPlan, system do projektowania ustawienia stanowisk i maszyn, który symuluje efekty przeprojektowania obszaru produkcyjnego czy zastosowania nowych linii montażowych. „Mamy wielu klientów, którzy stosuja Lean Manufacturing i używają naszych narzędzi,” mówi Gadi Becker, wiceprezydent marketingu w Herzeliya, izraelskiej firmy informatycznej. Osiągnięcia Greencastle jako rezultaty zastosowania Flow Manufacturing są wyjątkowe choć typowe dla nawróconych na Lean. „Mieliśmy dwa zakłady, a obecnie jesteśmy w jednym,” opowiada Alexander. Jego firma sprzedaje mniej więcej tyle samo używając tylko połowy powierzchni produkcyjnej, 31000 sq ft obecnie versus 75000 sq ft dwa lata temu.

Powierzchnia produkcyjna została kompletnie przeprojektowana. Na przykład jedno gniazdo produkcyjne, które zajmowało 1128 sq ft dzisiaj mieści się na 484 sq ft. Części przepływają obecnie według wzoru litery U, zamiast być przemieszczane kilka razy do przodu i do tyłu między tymi samymi stanowiskami. „Dodatkowa przestrzeń to miejsce na części i materiały,” mówi Alexander, brzmiąc jak nawrócona na koncepcję Flow. „Przyjmę zakład, że będą tam położone jeśli będzie miejsce, a jeśli ktoś to tam położy to jest to marnotrawstwo, gdyż nie dodaje wartości.” Najbardziej radykalnym posunięciem w Greencastle będzie usunięcie największego symbolu dawnych dni – w pełni załadowanych częściami i materiałami regałów. „Jesteśmy gotowi je zlikwidować,” mówi triumfująco Alexander. Pracownicy gniazd spawalniczych są obecnie odpowiedzialni za zamówienia części, których potrzebują. „Własność i zarządzanie tymi operacjami jest rozłożone na wszystkich,” wyjaśnia. „Jako rezultat zapasy zostały zredukowane o 1 milion USD do 170 tysięcy USD, z dalszą redukcją oczekiwaną w tym roku,” dodaje. Cykl od zamówienia do dostawy, uprzednio trzy do czterech tygodni, dzisiaj wynosi pięć dni. Sprzedaż w ostatnim roku podniosła się o 7% i firma stała się znowu dochodową. „Oczekujemy jeszcze lepszych wyników w 1999 roku,” dodaje.

Prawdopodobnie najtrudniejszym elementem transformacji w Lean jest wpływ na pracowników. Na przykład, w Greencastle załoga została zredukowana ze 150 w maju 1998 do 109 rok później. Ci którzy zostali musieli być przeszkoleni w nowej kulturze Lean. „Oczekujesz od tych ludzi by zarządzali twoim systemem,” mówi Alexander. „Robotnicy opracowują zamówienia klientów. Planiści i inni, których stanowiska stały się niepotrzebne, dostali ofertę przejścia do warsztatów albo awans na wyższe pozycje.””Jedni podjęli rolę robotników, inni przeszli do biura, a jeszcze inni odeszli,” mówi Alexander. „Ostatecznie uzyskaliśmy szczuplejszą załogę.” Jej własny wydział planowania, w którym pracowały kiedyś 22 osoby, ma teraz dwóch pracowników. Od czasu tej redukcji fluktuacja załogi zmniejszyła się z 40% w 1997 roku, kiedy firma operowała na stratach, do 4% do maja tego roku.

Ta dramatyczna zmiana w kierunku Lean, mówi Alexander, była spowodowana stratami firmy w roku 1997. ” Stało się oczywiste, że jeśli będziemy tracić pieniądze będąc prywatną firmą z obrotem 12 milionów USD rocznie, to wiele lat nie przetrwamy… Zachowanie stanowisk pracy było silnym bodźcem do zmiany.” Częścią problemu jest, że ERP schodzi z góry w dół, a Lean wznosi się od dołu do góry. Rozwiązaniem jest, mówi jeden z konsultantów, kompromis na poziomie kierownictwa. „Firmy prawie zawsze stawiają ścianę między tymi dwoma inicjatywami,” mówi Edward Frey, wiceprezydent biura konsultacyjnego w Booz, Allen & Hamilton Inc. w San Francisco. „Tylko kierownictwo ma właściwą perspektywę i jest władnym zlikwidować tę lukę.” Obie grupy – zwolennicy Lean i ci, którzy popierają ERP – powinni lepiej wyrażać swoje potrzeby. „Te systemy mogą pracować razem,” dodaje Frey. Booz Allen oferuje swoim klientom 8-mio punktowy plan by pomóc im zintegrować ERP z Lean.

Oczywiście w wielu firmach Lean i ERP współistnieją, nawet jeśli tylko z konieczności. Z jednej strony, ERP było wdrażane z dala od wydziałów produkcyjnych, w pierwszym rzędzie by zarządzać rachunkowością, kadrami i planowaniem na poziomie korporacji. W międzyczasie zakłady mogły kontynuować wdrożenie koncepcji Lean pod tym samym korporacyjnym dachem. Niektóre z firm, które próbowały używać obu koncepcji, mają za złe dostawcom oprogramowania ERP, że odwracają się plecami do idei Lean. „Baan, J.D. Edwards, Oracle i SAP będą musieli uznać, że chociaż ich tradycyjne narzędzia służą ludziom, to jednak ruch w kierunku zmiany paradygmatu jest konieczny,” mówi Eric Kulikowski, generalny dyrektor Respironics Inc. z Westminster, Colo., producent wyposażania medycznego. „Rynek jest na to całkowicie otwarty.”

Firmy dostarczające ERP były generalnie niechętne do łączenia ich systemów z innymi już istniejącymi w przedsiębiorstwach. „Nie istnieje tak naprawdę oprogramowanie dla Lean Manufacturing,” mówi analityk Grace. „Sprzedawcy programów ERP odrzucają uznanie faktu, że użytkownicy potrzebują dodatkowej funkcjonalności w odniesieniu do działań typu Flow. Standardowe narzędzia informatyczne mogłyby rozprzestrzenić normy i zwyczaje Flow na całe przedsiębiorstwo, ale takie produkty dopiero są wprowadzane na rynek.” Koncepcję Lean Manufacturing zapoczątkował w USA John Constanza Institute of Technology Inc. (JCIT), Englewood, Colo., który jest jednym z nielicznych oferującym również oprogramowanie wspierające tę ideę. Inni to American Software Inc. oraz Oracle Corp.

Respironics, na przykład, używa przez ostatnie 1 1 roku system JCIT Flow Power. „Używamy Flow Power do zarządzania w zakładzie produkcyjnym w Pittsburgh a całość biznesu jest prowadzona przy pomocy systemu ERP od SAP,” mówi Kulikowski z Respironics. American Saw & Mfg. Co., East Longmeadow, Mass., jest w trakcie wdrożenia systemu ERP z Oracle, który zawiera w sobie elementy koncepcji Flow. „Jednym z powodów wybrania Oracle była zawarta funkcjonalność Flow,” mówi Tom Demers, kierownik projektów w produkcji taśm tnących do pił i brzeszczotów do ręcznych narzędzi. Ze swojej strony Oracle dokonał wysiłku by wprowadzić zasady Flow do swej najnowszej wersji oprogramowania. „W naszym komitecie doradczym jest reprezentowanych więcej niż dwudziestu klientów, którzy pomogli przy projektowaniu lub wdrażają Oracle Flow Manufacturing,” mówi Thomas Chang, kierownik produktu aplikacji produkcyjnych z Redwood Shores, Calif., Oracle Corp. Jednak reszta środowiska oprogramowania ERP pozostaje we śnie, gdy chodzi o Lean, pomimo faktu, że środowisko produkcyjne przyjmuje koncept płynnego wytwarzania w proporcji do zapotrzebowania rynku widząc wyjątkowe efekty w produktywności – coś o czym ERP nawet nie mogło marzyć będąc u szczytu powodzenia.

Prawie połowa z 500 największych firm przemysłowych wprowadza strategie ciągłej, płynnej produkcji, donosi Industry Directions Inc., firma robiąca badania w dziedzinie IT (Information Technology) w Newburyport, Mass. Pomimo konfliktu między ERP a Lean, niektórzy producenci twierdzą, że nie mieli wielkich problemów w integracji tych obu. Hay & Forage Industries, producent kombajnów i maszyn do belowania siana, jest w początkowym stadium stosowania jednocześnie MRP i Flow. „Ludzie mówią, że MRP i Flow nie mogą razem współżyć, ale my nie widzimy tu konfliktu,” mówi Terry McCloud, kierownik produkcji Flow. „My wchodzimy we Flow Manufacturing już od ponad roku i mamy sukcesy. Robimy to jednak krok po kroku, gdyż powinien to być powolny proces.”

Jednym z dostawców zaawansowanym we wspieraniu swoim oprogramowaniem koncepcji Flow jest American Software. Ich Flow Manufacturing moduł pomaga kierownikom zakładów modelować nowe linie produkcyjne, symulować ich potencjalne możliwości i planować dzienną produkcję. „Uważamy za konieczne stworzenie kompletnej, zorientowanej na Flow aplikacji ponieważ transakcje są bardzo odmienne (w porównaniu do ERP),” mówi Karin Bursa, wiceprezydent d/s marketingu firmy informatycznej z Atlanty. „Nasze produkty wspierają, na przykład, Kanban co pozwala wyzwalać automatycznie sygnały zapotrzebowania z linii do dostawców.” Możliwość graficznego przedstawiania projektu linii w naszym programie może być użyta do modelowania zmian i ich efektów „by stwierdzić czy nie powodują wąskich gardeł i zawęźleń,” dodaje Bursa. By udowodnić, że można łączyć wodę z ogniem, American Software zintegrował moduł Flow z ich systemem ERP oraz także z systemem ERP firmy JBA International Inc.

Pomysł polega na tym, mówi Bursa, żeby ułatwić połączenie koniecznych dla obu programów punktów. „Niektóre krytyczne informacje winny być wspólne dla obu,” wyjaśnia. Dotyczy to danych zapasów, zapotrzebowania (zamówienia klientów i prognozy sprzedaży), informacji dostawców o dostępności materiałów i ich dostaw, danych kosztowych oraz danych podstawowych (dotyczących wyrobów, części, materiałów itd.). Cztery piąte z 55 wdrożeń American Software u 15 klientów używają ich modułu Flow Manufacturing zintegrowanego z innymi systemami ERP. „Najważniejsze jest, że takie informacje jak zapasy, finanse i zamówienia klientów są krytyczne niezależnie czy jest się w środowisku Lean czy nie,” mówi Bursa. Chociaż wielu producentów Lean zrezygnowało z MRP jest ciągle prawdą, że większość z nich potrzebuje mechanizmu długofalowego planowania. „Patrzymy na sprzedaż 6 miesięcy do przodu,” mówi Alexander. „Korzystamy z prognoz zakupu otrzymanych od naszych klientów faksem czy e-mailem, tygodniowo bądź miesięcznie. Używamy ich do projektowania naszej zdolności wytwórczej i możemy zaplanować ewentualność wystąpienia większego obciążenia.” Mimo to główną zasadą jest, mówi Alexander, „Produkujemy tylko wtedy, gdy jest zapotrzebowanie.”

Innym wspólnym elementem, jaki Lean ma z ERP jest to, że oba potrzebują maksymalnego zaangażowania pracowników i kierownictwa. „To jest poważna zmiana kultury dla przemysłu wytwórczego w USA,” mówi Briatico z Maytag. Alexander z Greencastle Metal Works zgadza się: „To jest gruntowna zmiana w kulturze i filozofii firmy.” To nie polega tylko na przeszkoleniu pracowników , ale na włączeniu każdego – a przede wszystkim kierownictwa – do popierania tego nowego zadania, podkreśla Alexander. „Jest to wielkie wyzwanie dla kierowników.” Aktualny przegląd dokonany przez firmę AMR Research w 20 przedsiębiorstwach wykazał, że 19 z 20, które adoptowały Lean Manufacturing musiało zmienić kierownictwo zakładów produkcyjnych, mówi Grace. Najwyraźniej jednak dla przeważającej ilości firm produkcyjnych, które zaangażowały się w koncepcję Lean, jest to prawie religia, gdzie każdy nawrócony staje się prawdziwym wierzącym. Briatico z Maytag przedstawia to tak, „Lepsze wprowadzenie w życie Lean prowadzi do wyższych korzyści w konkurencyjnej walce.” Tak długo jak długo ERP nie przeszkodzi.

image_pdf

Organizacja i przebieg badań

5/5 - (1 vote)

część praktyczna pracy magisterskiej

Miejscem badań jest miasto w południowo-wschodniej Polsce liczące około 70 tysięcy mieszkańców. Tematem ankiety jest system motywacyjny pracowników. Z całej populacji miasta już na samym początku wyodrębniono więc losową grupę ludzi aktywnych zawodowo. Kwestionariusze ankiety zostały każdorazowo przekazane respondentom, którzy samodzielnie go wypełnili i zwrócili ankieterowi. Ankieta nie sprawiła respondentom trudności, była przejrzysta i czytelna. Ogółem udało się odzyskać 114 ankiety, z czego 4 były niekompletne lub pokreślone i nie nadawały się do dalszej analizy. Zostały one pominięte. Po przeprowadzeniu ankiety, formularze zostały przeanalizowane pod kątem potrzebnych wiadomości. Na tej podstawie zostały wyprowadzone: charakterystyka badanej populacji oraz wysnute zostały wnioski dotyczące badanych problemów.

Aby umożliwić obróbkę zebranych podczas ankiety danych stworzono następujące klucze odpowiedzi:

Tabela 1:Klucze odpowiedzi dotyczące pytań podstawowych

Wariant odpowiedzi          
Skala punktowa 1 2 3 4 5

Źródło: opracowanie własne

Tabela 2:Klucze odpowiedzi dotyczące wieku

Poniżej 30 lat 31-40 lat 41-50 lat Powyżej

50 lat

1 2 3 4

Źródło: opracowanie własne

Tabela 3:Klucze odpowiedzi dotyczące płci

Płeć Kobieta Mężczyzna
oznaczenie cyfrowe 1 2

Źródło: opracowanie własne

Tabela 4:Klucze odpowiedzi dotyczące wykształcenia

wykształcenie podstawowe średnie Wyższe
oznaczenie cyfrowe 1 2 3

Źródło: opracowanie własne

Tabela 5:Klucze odpowiedzi dotyczące zarobków

Miesięczne zarobki Poniżej 1000zł 1000-5000zł Powyżej 5000zł
oznaczenie cyfrowe 1 2 4

Źródło: opracowanie własne

image_pdf

Jak profesjonalnie inwestować w papiery wartościowe

5/5 - (1 vote)

Zarządzanie portfelem papierów wartościowych stało się obecnie profesją jak każda inna. Setki ludzi na całym świecie stara się zoptymalizować portfele tak pod względem dopasowania do potrzeb klienta – właściciela aktywów, jak i do warunków panujących na rynku kapitałowym. Na profesjonalizacji zyskują oczywiście klienci.

Inną konsekwencją tego procesu jest także zwiększenie efektywności rynku. Aktywne zarządzanie mające na celu uzyskanie ponadprzeciętnych (ponadrynkowych) stóp zwrotu jest w tej sytuacji utrudnione, szczególnie jeśli nie dysponuje się odpowiednimi narzędziami oraz bardzo dobrym dostępem do informacji.

Inwestowanie na rynku kapitałowym powinno być traktowane jako proces ciągły. Składa się on z kilku faz. Po pierwsze należy dokładnie rozpoznać potrzeby inwestora oraz jego ograniczenia. Na tej podstawie tworzona jest odpowiednia strategia inwestycyjna. Jednocześnie jednak należy mieć na uwadze to co dzieje się na rynku kapitałowym oraz wielkość stóp zwrotu możliwych do osiągnięcia.

Po analizie uwarunkowań dotyczących tak klienta, jak i rynku kapitałowego, budowany jest portfel. Na tym jednak zadanie zarządzających nie kończy się. Oba bowiem zespoły czynników mogą i zwykle ulegają zmianie. Z powodu zmian sytuacji materialnej czy też stratyfikacji celów, inwestor może nie akceptować dotychczasowego poziomu ryzyka, czy też przeciwnie może żądać, aby jego portfel stał się agresywniejszy w celu osiągnięcia wyższej stopy zwrotu. Również rynek kapitałowy podlega nieustającym zmianom. Dotyczy to uwarunkowań makroekonomicznych oraz procesów zachodzących na poziomie pojedynczych emitentów. Sprawia to, że portfel optymalny dzisiaj z reguły przestaje takim być za tydzień czy miesiąc. W tym wypadku należy jednak rozważyć czy koszty transakcyjne równoważą optymalizowanie portfela.

W końcu niezbędna jest okresowa analiza osiąganych wyników. Powinna ona określać, w jakim stopniu założenia, przy których podejmowaliśmy inwestycje zostały spełnione, jaka stopa zwrotu została osiągnięta, jakie były źródła zysku/straty oraz jakie ryzyko zostało poniesione.

Strategia inwestycyjna

Rozpatrując kwestię budowania strategii inwestycyjnej należy dokonać rozróżnienia między osobami fizycznymi a instytucjami. Po pierwsze te dwie grupy inwestorów inaczej postrzegają i definiują ryzyko inwestycyjne. Instytucje na ogół akceptują takie miary statystyczne jak standardowe odchylenie czy tracking error, a jeśli chodzi o wyniki to patrzą raczej na to, o ile stopa zwrotu z portfela przekroczyła stopę odniesienia. Z kolei osoby fizyczne zwracają małą uwagę na samo ryzyko a bardziej zainteresowane są bezwzględną stopą zwrotu. Poza tym osoby fizyczne nieufnie są nastawione do instrumentów, których nie znają. Uważają na przykład, że instrumenty pochodne są obarczone bardzo wysokim ryzykiem, podczas gdy w istocie często są one używane w celu redukcji ogólnego poziomu ryzyka.

Różnicę między osobami fizycznymi oraz instytucjami zauważyć można również przy definicji celów, jakie inwestycja ma osiągnąć. I tak w przypadku osób fizycznych wyróżnić można krótkoterminowe cele o dużym znaczeniu (np. zakup domu, wykształcenie dzieci), cele długoterminowe o dużym znaczeniu (np. zabezpieczenie godziwych dochodów po przejściu na emeryturę, posag dla dziecka) oraz cele o mniejszym znaczeniu (np. zakup drogiego samochodu, darowizna dla fundacji). W przypadku inwestorów instytucjonalnych z kolei cele wynikają raczej z natury prowadzonej przez nich działalności, obecnej i spodziewanej struktury aktywów i pasywów oraz potrzeb inwestycyjnych. Z reguły przedsiębiorstwa inwestują krótkoterminowe nadwyżki finansowe, celem będzie więc utrzymanie realnej wartości kapitałów. W przypadku z kolei fundacji celem jest finansowanie określonych programów rozłożonych na wiele lat, co daje możliwość trochę bardziej agresywnego inwestowania.

Następnym krokiem jest zdefiniowanie ryzyka i ustalenie maksymalnego akceptowanego jego poziomu. Ryzyko to jest ściśle uzależnione od celów, które ma osiągnąć dana inwestycja. Często twierdzi się na przykład, że posiadanie akcji jest bardziej ryzykowne niż zakup obligacji. Rozważmy jednak trzydziestolatka, który oszczędza z myślą o swojej przyszłej emeryturze. Głównym czynnikiem ryzyka jest dla niego utrata realnej wartości posiadanego kapitału w długim okresie. Akcje, stanowiąc roszczenie w stosunku do realnych aktywów, są w tym wypadku lepszym zabezpieczeniem niż instrumenty dłużne. Prawdą jest, że zmienność cen akcji jest większa niż cen obligacji – czy jednak inwestor ten powinien martwić się o wahania cen akcji w krótkim okresie, skoro wcale nie zamierza on likwidować swojej pozycji przez następne kilkadziesiąt lat? Podobnie przedsiębiorstwo lokujące krótkoterminowe nadwyżki finansowe powinno unikać obligacji o długim terminie wykupu ze względu na stosunkowo wysokie ryzyko zmiany stóp procentowych.

Ogólnie rzecz biorąc ryzyko jest oczywiście czymś niepożądanym; dodatkowe ryzyko ponoszone powinno być tylko w celu osiągnięcia większych korzyści. Systematyczne podejście do tej kwestii ma na celu zdefiniowanie i zmierzenie ryzyka oraz jego zminimalizowanie mając na uwadze realizację celu inwestycyjnego.

Jak więc można mierzyć ryzyko inwestycyjne? Swego czasu najbardziej popularną miarą było odchylenie standardowe określające zmienność cen poszczególnych instrumentów lub całego portfela. Jak się okazuje jednak, odchylenie standardowe ma szereg niepożądanych cech. Przede wszystkim jego konstrukcja jest taka, że jednakowo traktuje ona odchylenia stopy zwrotu od średniej w górę, jak i w dół (a przecież odchyleń w górę inwestorzy nie traktują raczej jako czegoś nieprzyjemnego). W przypadku zaś instrumentów o nieliniowych stopach zwrotu (np. opcje), odchylenie standardowe robi się wręcz nieużyteczne, jako, że zmienność tych instrumentów jest niesymetryczna. Na przykład zakup opcji wiąże się z relatywnie wysokim ryzykiem straty, ale strata ta jest ograniczona, podczas gdy zysk jest nieograniczony, ale też coraz mniej prawdopodobny.

Inną miarą powszechnie wykorzystywaną jest beta. Zakłada się, że ryzyko inwestycyjne można podzielić na ryzyko systematyczne (a więc oddziaływujące na wszystkie instrumenty) oraz niesystematyczne (oddziaływujące tylko na poszczególne instrumenty lub ich grupy). Jako, że te ostatnie można wyeliminować poprzez dywersyfikację, zadaniem bety jest mierzenie ryzyka systematycznego. Dla przykładu jeśli dana akcja ma beta równe 1,3 oznacza to, że zmienność jej ceny jest o 30% większa niż zmienność całego rynku akcji.

W ostatnich latach pojawiła się nowa miara ryzyka: VAR (value at risk). VAR odpowiada na pytanie o ile maksymalnie może spaść wartość inwestycji w określonym przedziale czasu i z określonym z góry prawdopodobieństwem. Jeśli więc przykładowo obliczenia dokonywane są dla okresu jednego miesiąca i VAR wynosi 10 tys. zł na poziomie pewności równym 95%, oznacza to, że średnio tylko w jednym wypadku na dwadzieścia (5%) portfel na przestrzeni tego okresu straci więcej niż 10 tys. zł.

Niewątpliwą zaletą VAR jest przedstawienie ryzyka w skondensowany i zrozumiały sposób. Odpowiednia metodologia pozwala też na wyodrębnienie poszczególnych czynników ryzyka i zmierzenie ich wpływu na całościowy profil portfela. Z drugiej jednak strony VAR skupia się na jednym punkcie podczas gdy bardziej użyteczna byłaby znajomość większego zakresu rozkładu stóp zwrotu z danej inwestycji. Pojawiają się poza tym problemy z wyliczeniem VAR. Jedne metody opierają się na danych historycznych, są jednak mało elastyczne i wymagają rozbudowanej bazy danych, która dodatkowo nie musi być reprezentatywna na użytek przyszłości. Inne metody stosują modele symulacyjne, które z kolei są trudniejsze w konstrukcji i interpretacji.

Inną nowoczesną miarą ryzyka jest tzw. tracking error, który mierzy średnie odchylenie zmiany wartości portfela w stosunku do zmiany wartości stopy odniesienia na przestrzeni danego okresu. Wielkość ta pokazuje więc jak bardzo dynamiczne są względne zmiany wartości portfela.

Jak było już powiedziane wcześniej niepożądane ryzyko należy minimalizować. Można to robić na kilka sposobów. Najważniejszym z nich jest dywersyfikacja. W ten sposób unikamy nadmiernego ryzyka związanego z pojedynczym instrumentem (emitentem). Nawet najlepsza spółka może popaść w kłopoty finansowe co spowodować może duży spadek ceny jej akcji czy wyemitowanej przez nią obligacji. Badania praktyczne pokazują, że największe korzyści z dywersyfikacji osiągane są przy zwiększaniu liczby papierów wartościowych w portfelu do około 20, podczas gdy dalszy wzrost przynosząc mało korzyści zwiększa koszty transakcyjne oraz koszty związane z analizowaniem większej liczby papierów. Ważna jest jednak nie tylko bezwzględna liczba, ale również przekrój sektorowy czy segmentowy. Na przykład jeśli strategia nie zakłada preferencji w stosunku do danego sektora, to kupowanie wyłącznie spółek z sektora technologii informatycznych wystawia inwestora na duże ryzyko pogorszenia klimatu inwestycyjnego związanego z tym sektorem (na skutek na przykład osłabienia stopy wzrostu w branży).

Pochodną celu inwestycyjnego oraz poziomu akceptowalnego ryzyka jest określenie horyzontu inwestycyjnego, wymaganej płynności oraz stopy odniesienia, do której porównywać się będzie wyniki osiągnięte na portfelu.

Inwestorzy instytucjonalni powinni brać pod uwagę dodatkowo aspekt podatkowy (dotyczy to również osób fizycznych, w większości jednak wypadków dochody związane z inwestycjami na rynku kapitałowym są dla osób fizycznych wolne od podatku). Realizacja zysku pociąga bowiem ze sobą konieczność zapłacenia podatku, podczas gdy strata pozwala na jej odliczenie od podstawy opodatkowania. Ostatecznie ważna jest więc stopa zwrotu z inwestycji po opodatkowaniu. Z tego punktu widzenia w przypadku portfela o długoterminowym horyzoncie czasowym, racjonalnym wydaje się rozważenie inwestycji w obligacje o długim terminie do wykupu. Są one najbardziej wrażliwe na zmiany stóp procentowych. Profil ryzyka związany z taką inwestycją jest jednak trochę inny jeśli uwzględnimy aspekt podatkowy. Spadek bowiem ich ceny (w reakcji na wzrost stopy procentowej) może być wykorzystany do dokonania zamiany na obligacje, których ceny spadły w takim samym stopniu, co powoduje obniżenie podstawy opodatkowania. Oczywiście od później zrealizowanego zysku trzeba będzie podatek zapłacić, niemniej jednak odroczenie tego w czasie przynosi oczywiste korzyści.

Konstrukcja portfela

Konstrukcja portfela powinna być wypadkową zespołu uwarunkowań dotyczących inwestora oraz analizy możliwości inwestycyjnych. Za najważniejszą decyzję w tym względzie uznaje się alokację aktywów względem poszczególnych klas papierów wartościowych: akcji, obligacji oraz instrumentów rynku pieniężnego. Już na tym etapie można też dokładniej określić preferowane sektory czy segmenty rynku. W przypadku akcji byłby to np. segment spółek o dużej kapitalizacji lub też spółek z sektorów o spodziewanej wysokiej stopie wzrostu (informatyka, telekomunikacja). Dla inwestycji w obligacje może to być rozróżnienie między rodzajem emitentów (Skarb Państwa versus korporacje) czy też określenie okresów zapadalności.

Najprostszym podejściem jest tzw. strategiczna alokacja aktywów, gdzie wagi pozostają niezmienne. W sytuacji względnych zmian poziomów cenowych poszczególnych klas aktywów, dokonuje się okresowego rebalansowania, a więc sprzedawania papierów, których cena wzrosła w celu kupna papierów, których cena w poprzednim okresie spadła. W tym wypadku przyjmuje się, że nie następuje żadna zmiana uwarunkowań dotyczących tak inwestora jak i otoczenia rynkowego.

Bardziej złożoną formą jest taktyczna alokacja. W tym wypadku zarządzający dokonuje okresowego zwiększenia (zmniejszenia) udziału akcji w oczekiwaniu na poprawę (pogorszeniu) koniunktury na rynku akcji. Również w tym podejściu zakłada się, że uwarunkowania dotyczące klienta nie zmieniają się.

Inaczej jest w zintegrowanej alokacji aktywów, gdzie uwzględnia się zmiany tak dotyczące klienta, jak i otoczenia rynkowego. W tym przypadku następuje ciągłe monitorowanie profilu inwestora oraz otoczenia rynkowego, a alokacja aktywów jest dopasowana do zmieniających się uwarunkowań. Jest to więc metoda najtrudniejsza w realizacji, jednocześnie jednak prowadzi do tego, że portfel zawsze odzwierciedla sytuację inwestora oraz rynku kapitałowego.

Szczególną metodą rebalansowania jest zabezpieczona alokacja aktywów. Zakłada się w tym przypadku, że tolerancja ryzyka inwestora jest wprost proporcjonalna do wartości portfela.. Na wstępie więc ustala się minimalną wielkość, poniżej której wartość portfela w żadnym wypadku nie może spaść. Następnie gdy wartość portfela obniża się, aktywa o wyższym poziomie ryzyka (np. akcje) sprzedaje się reinwestując środki w aktywa o niższym ryzyku (np. obligacje). Jeśli wartość portfela zbliża się do ustalonej kwoty minimalnej, całość jest lokowana w bezpieczne aktywa. Z kolei w przypadku wzrostu wartości portfela część agresywna jest odpowiednio zwiększana, co pozwala na uzyskanie wyższej stopy zwrotu, ale też wiąże się z wyższym ryzykiem.

Inną ważną decyzją, którą należy podjąć jest wybór między pasywnym i aktywnym podejściem. Strategia pasywna polega na replikacji portfela rynkowego (np. indeksowego). Głównym wyzwaniem przy tym podejściu jest maksymalne przybliżenie stopy zwrotu osiąganej na portfelu do stopy osiąganej przez indeks będący stopą odniesienia. Strategia aktywna z kolei poszukuje dodatkowej stopy zwrotu (wyższej niż rynkowa), co następuje głównie poprzez market timing oraz udany dobór sektorów i spółek do portfela. Oczywiście wiąże się to z wyższym ryzykiem. Wyższe są też w tym wypadku koszty transakcyjne oraz opłaty. Wybór między pasywną oraz aktywną strategią jest pochodną wiary w to, na ile rynek jest efektywny oraz jakie są szanse na to, że zarządzający jest w stanie “pokonać rynek”, a więc osiągnąć ponadprzeciętną stopę zwrotu.

Oba podejścia nie muszą zresztą być traktowane rozłącznie. Szczególnie w przypadku dużych inwestorów popularna jest metoda inwestowania większości portfela (core portfolio) zgodnie ze strategią pasywną, podczas gdy mniejsza jego część jest inwestowana w poszukiwaniu dodatkowej stopy zwrotu.

Dobór poszczególnych papierów wartościowych przy założeniu aktywnej strategii następuje na podstawie analizy technicznej bądź fundamentalnej (często obie metody stosowane są łącznie). Przy tej ostatniej możliwe są dwa podejścia. W pierwszym z nich tzw. top-down, analiza zaczyna się na poziomie czynników makroekonomicznych (stopa wzrostu gospodarczego, inflacja, poziom stóp procentowych, kursy walutowe itd.), następnie obejmuje branże (określenie najatrakcyjniejszych branż, oparte na analizie makroekonomicznej), kończąc ostatecznie na wyborze akcji najlepszych spółek w najbardziej atrakcyjnych branżach. Sama analiza spółek składa się z dwóch elementów. Po pierwsze więc badaniu podlegają czynniki natury jakościowej takie jak strategia spółki oraz metody jej realizacji, portfel produktów, sytuacja finansowa, przewagi konkurencyjne, jakość zarządu. Drugi element to waluacja stwierdzająca czy biorąc pod uwagę wszystkie wcześniej analizowane czynniki, bieżąca cena akcji jest wystarczająco atrakcyjna.

W innym podejściu, tzw. bottom-up, poszukiwania niedowartościowanych akcji zaczynają się na poziomie spółek, a to w jakiej branży działają spółki nie jest tak istotne. Następnie portfel jest optymalizowany biorąc pod uwagę oczekiwane stopy zwrotu, ryzyko oraz zależność od pewnych zmiennych makroekonomicznych (np. aby uniknąć dużego spadku wartości portfela w reakcji na obniżenie stopy wzrostu gospodarczego).

Monitoring

Jak już wcześniej zaznaczono monitorowanie polega na badaniu czy zmieniły się czynniki warunkujące budowę pierwotnego portfela. Chodzi tu o dwa rodzaje czynników. Pierwszy dotyczy inwestora. Z powodu różnych okoliczności ulegać zmianie mogą cele inwestycyjne, akceptowany poziom ryzyka, horyzont czasowy czy też wymagana płynność.

Drugi zespół czynników – dotyczący rynku kapitałowego – jest znacznie bardziej zmienny. Przede wszystkim więc chodzi tu o fluktuację cen. Należy badać czy zmiany te są wynikiem dostosowania do innych zmiennych takich jak sytuacja fundamentalna spółki lub uwarunkowania makroekonomiczne, czy też stanowią nieefektywność, której wykorzystanie doprowadzić może do osiągnięcia wyższej stopy zwrotu. W krótkim okresie należy mieć również na uwadze sentyment jaki panuje na rynku. Cóż bowiem z tego, że uważamy, iż cena akcji danej spółki jest zbyt niska, kiedy i tak musimy ją sprzedać przed spodziewanym przez nas dostosowaniem ceny w górę.

Wszystkie te zmiany powodować muszą dostosowanie portfela do nowej sytuacji poprzez realokację aktywów w ramach poszczególnych klas aktywów lub inny dobór papierów wartościowych w ramach danej klasy.

Analiza wyników

Analiza wyników służy ocenie umiejętności zarządzającego (bądź inwestora) oraz zrozumienie jakie były źródła zysków, a jakie źródła strat. Przykładowo ogólny przeciętny wynik na portfelu mógł być spowodowany udaną realokacją aktywów w ramach aktywnej alokacji aktywów oraz nieudanym doborem spółek (lub odwrotnie). Może się też okazać, że świetnie zarządzamy portfelem papierów dłużnych a słabo portfelem akcji.

Podstawą analizy wyników jest porównanie osiągniętej stopy zwrotu na portfelu do stopy odniesienia. Konieczne jest jednak również uwzględnienie poziomu ryzyka związanego z osiągnięciem określonego zysku. Jest bowiem oczywiste, że z dwóch zarządzających, którzy wypracowali identyczną stopę zwrotu lepszy jest ten, który ponosił mniejsze ryzyko.

Należy też w tym miejscu uwzględnić horyzont czasowy. Jeśli sformułowaliśmy długoterminową strategię, nie przykładajmy zbyt wielkiej wagi do wyników miesięcznych.

Do oceny wyników pomocne są wskaźniki takie jak miara Treynora, Sharpa czy Jensena. Przykładowo ta pierwsza jest stosunkiem różnicy stopy zwrotu z portfela oraz tzw. stopy wolnej od ryzyka do ryzyka portfela mierzonego poprzez beta.

Inwestor – zarządzający

W praktyce istnieją dwie opcje inwestowania wolnych środków finansowych.

a) inwestowanie we własnym zakresie

b) korzystanie z usług firm wyspecjalizowanych w zarządzaniu aktywami.

Pierwsza opcja choć charakteryzuje się dość dużą elastycznością decyzyjną, jest czasochłonna i dla osiągania w długim terminie efektywnych korzyści wymaga profesjonalnego przygotowania.
W drugiej opcji inwestor za opłatą powierza swoje środki instytucji profesjonalnie zajmującej się inwestowaniem aktywów na rynku finansowym. W ramach tej opcji należy wymienić przede wszystkim fundusze inwestycyjne oraz firmy typu asset management. Fundusze inwestycyjne są wygodnym rozwiązaniem szczególnie dla osób dysponujących niewielkimi środkami finansowymi. Jednakże ta opcja charakteryzuje się ograniczoną liczbą oferowanych strategii inwestycyjnych (szczególnie w Polsce) oraz brakiem możliwości negocjowania opłat za zarządzanie. Osoby o zasobniejszych portfelach oraz klienci instytucjonalni powinny rozważyć powierzenie aktywów firmom typu asset management. Korzystając z tej opcji klienci nie tylko mogą wynegocjować korzystniejsze warunki cenowe, ale także otrzymują usługę indywidualnie dopasowaną do ich potrzeb.

Zarządzanie aktywami – aspekt prawny

Zarządzanie portfelem papierów wartościowych opiera się na uregulowanej Kodeksem Cywilnym konstrukcji prawnej pełnomocnictwa. W tym szczególnym przypadku oznacza to, że jako mocodawca Klient pozostanie właścicielem aktywów finansowych zgromadzonych na rachunku inwestycyjnym i będzie ponosić wszelkie skutki prawne działań pełnomocnika. Pełnomocnikiem w przypadku podpisania umowy o zarządzanie portfelem stanie się firma zarządzająca aktywami, która będzie dokonywała transakcji w imieniu i na rachunek Klienta. Zatem decydując się na powierzenie swoich aktywów finansowych, Klient nie tylko uzyskuje przychód z zarządzanego portfela, ale także ponosi ryzyko inwestycji. Pełnomocnictwo stanowi część Umowy którą podpisuje Klient. Umowa o zarządzanie powinna w szczególności określać uzgodnioną strategię inwestycyjną, wielkość aktywów wnoszonych do zarządzania, strukturę i wysokość ponoszonych opłat za zarządzanie oraz sposób ich pobierania. W Polsce nadzór nad działalnością firm zarządzających sprawuje Komisja Papierów Wartościowych i Giełd.

Zalety korzystania z usług firm zarządzających

Główną zaletą korzystania z usług firmy zarządzającej jest oszczędność czasu, który trzeba poświęcić na analizę rynku, dobór aktywów, dokonywanie transakcji oraz ciągłe monitorowanie portfela. Nie bez znaczenia jest też efekt skali. Asset managerowie zarządzając aktywami w imieniu wielu klientów, mają lepszą pozycję negocjacyjną w stosunku do biur maklerskich oraz banków. Za niewielką opłatę, otrzymujemy profesjonalną usługę bazującą na wyrafinowanych narzędziach inwestycyjnych oraz dostępie do informacji z różnych źródeł w tym samym czasie.

ABN AMRO Asset Management (Polska) S.A.

ABN AMRO Asset Management (Polska) S.A. zajmuje się zarządzaniem portfelami papierów wartościowych na zlecenie klientów instytucjonalnych oraz klientów prywatnych. Spółka powstała 30 lipca 1997 r., a działalność rozpoczęliśmy w maju 1998 r. po otrzymaniu licencji od Komisji Papierów Wartościowych i Giełd. Właścicielem spółki jest holenderski bank ABN AMRO Bank N.V., będący jednym z największych banków na świecie.

Każdy z naszych Klientów obsługiwany jest przez Doradcę ds Portfeli czyli opiekuna rachunku. Zadaniem Doradcy ds Portfeli jest m.in. zidentyfikowanie celu inwestycyjnego, horyzontu inwestycyjnego, tolerancji ryzyka oraz innych preferencji każdego klienta. Na bazie tych informacji, opiekun wspólnie z Klientem buduje indywidualną strategię inwestycyjną wykorzystując w tym celu dostępne modelowe portfele papierów wartościowych. ABN AMRO Asset Management (Polska) S.A. oferuje obecnie kilkanaście takich produktów o zróżnicowanym profilu inwestycyjnym, od ochrony kapitału po dynamiczny wzrost. Wszystkie portfele są zarządzane według międzynarodowych standardów ABN AMRO Asset Management.

Cechą wyróżniającą ABN AMRO Asset Management jest to, że proces podejmowania decyzji dotyczących zarządzania aktywami odbywa się w ramach struktury Komitetów Inwestycyjnych. Komitety te są forum, na którym specjaliści wymieniają opinie na temat sytuacji na rynku, a także podejmują kluczowe decyzje inwestycyjne. Taka struktura podejmowania decyzji zapewnia, że budując portfele naszych klientów uwzględniamy wszelkie według nas istotne informacje oraz opinie różnych ekspertów.

Na szczycie hierarchii znajduje się Globalny Komitet Inwestycyjny, który decyduje o zaangażowaniu jednostek ABN AMRO Asset Management na poszczególnych rynkach, a także wydaje rekomendacje dotyczące inwestowania w różne instrumenty finansowe. W skład tego komitetu wchodzą zarządzający portfelami o dużym doświadczeniu i kwalifikacjach. W polskim biurze zarządzania aktywami w regularnych odstępach czasu obraduje Komitet Inwestycyjny na Polskę. W skład tego komitetu wchodzą: prezes zarządu ABN AMRO Asset Management (Polska) S.A., zarządzający portfelami w ABN AMRO Asset Management (Polska) S.A. oraz zarządzający funduszem ABN AMRO Eastern European Equity Fund. Celem tych spotkań jest ocena uwarunkowań ekonomicznych i politycznych w Polsce i ich wpływu na kształtowanie się sytuacji na rynku kapitałowym. W czasie obrad Komitetu decydujemy także o modelowej alokacji aktywów w poszczególnych portfelach modelowych, biorąc pod uwagę rekomendacje komitetu Globalnego. Wytyczne Komitetu są punktem odniesienia przy konstruowaniu portfeli poszczególnych klientów. Decyzje inwestycyjne, o tym jakie konkretnie papiery wartościowe znajdą się w Państwa portfelu podejmują nasi doradcy inwestycyjni.

ABN AMRO Asset Management zarządza aktywami w wysokości ponad 150 miliardów USD i posiada biura w 33 krajach, a głównymi centrami zarządzania aktywami są Amsterdam, Londyn, Chicago i Hong Kong.

Andrzej Kosiński, Jacek Treumann

image_pdf

Euroobligacje – finansowanie na wielką skalę

5/5 - (1 vote)

Obligacje to zaplanowany w dłuższym okresie proces pozyskania znacznego kapitału. Są świadectwem zobowiązania, kontraktową obligacją dłużnika do dokonania zapłaty odsetek i spłaty pożyczonych funduszy w ściśle określonych terminach. Można powiedzieć, że znaczącą cechą obligacji jest wysoka płynność, która pozwala na ich swobodną sprzedaż i kupno na najważniejszych giełdach, gdzie są one notowane.

Emisja euroobligacji stała się jednym z korzystniejszych źródeł pozyskania kapitału do działania i funkcjonowania firmy, jak również alternatywną formą pozyskania funduszy na rynkach międzynarodowych. Z takiej formy finansowania skorzystały już między innymi Telekomunikacja Polska, Elektrim, Polska Telefonia Cyfrowa, Bank Handlowy czy Rząd Polski. Przykładowo, TP S.A. chciała wykorzystać środki pozyskane z pierwszej emisji obligacji m.in. na finansowanie wydatków inwestycyjnych głównie w celu rozbudowy sieci telefonii stacjonarnej, sfinansowanie zapotrzebowania na kapitał obrotowy oraz na wkład kapitałowy do PTK-Centertel w celu sfinansowania procesu uzyskania koncesji oraz rozwoju działalności w zakresie telefonii komórkowej. ERA GSM miała podobne zapotrzebowanie kapitałowe związane z rozwojem sieci systemu GSM i wdrażaniem nowych usług, czy rozbudową sieci bazowych. Podobnie inni emitenci pozyskują kapitał w celu spłacenia już zaciągniętych droższych zobowiązań kredytowych czy wekslowych oraz inwestują w dalszy rozwój działalności przedsiębiorstwa.

Emisja obligacji może sama w sobie zostać sklasyfikowana jako emisja publiczna lub „private placements”. Emisja publiczna zwykle jest dystrybuowana przez managerów emisji – grupę banków, która podpisuje i sprzedaje obligacje. Private placements odbywa się poza obrotem publicznym, sprzedaż dokonuje się głównie wśród wybranej grupy inwestorów. Private placements nie jest dystrybuowany czy syndykowany. W niektórych przypadkach nie jest również publikowany i notowany na większych giełdach papierów wartościowych, przynajmniej w początkowej fazie.

Emisja obligacji w praktyce jest szybszą i tańszą formą pozyskania kapitału w porównaniu do innych możliwych źródeł jak: emisja akcji, kredyty czy kapitał z funduszu inwestycyjnego. Emisja obligacji pozwala na dostęp do nieograniczonej wielkości kapitału na rynkach międzynarodowych, czy to w Europie czy Stanach Zjednoczonych, zwłaszcza w przypadku kilkukrotnych emisji przeprowadzanych przez tego samego emitenta. Rynek obligacji jest rynkiem bardzo dużym i szybko rozwijającym się. Obecnie na rynku akcji można zaobserwować znaczącą stagnację a nawet pewną niechęć inwestorów do zakupu – mówi Albert May, Dyrektor Departamentu Bankowości Inwestycyjnej i Rynków Kapitałowych Citibank (Poland) S.A.

Dlaczego taka forma finansowania?

Zaciągnięcie kredytu na kwotę około 300 milionów USD nie jest praktycznie możliwe na polskim rynku. Polski system bankowy nie jest w stanie samodzielnie wygenerować tak dużej kwoty pieniężnej, a w szczególności przez jeden bank w dodatku polski. W zaistniałej sytuacji tworzy się konsorcjum około 5-8 banków, do którego z reguły wchodzą banki międzynarodowe. Zaciągane kredyty są wysoko oprocentowane, co powoduje podniesienie kosztów pozyskania kapitału, a w praktyce nie zaciąga się kredytów na długi okres, przy tak dużych kwotach. Jednym z powodów dla których spółki decydują się na emisje obligacji na rynkach międzynarodowych jest fakt, iż jest to rynek, dla którego w porównaniu z rynkiem kredytowym, pozyskanie kwot rzędu 200 czy 300 milionów USD nie stanowi problemu. Rynek polski nie dysponuje wystarczającym potencjałem, zaś na rynku międzynarodowym kwoty takie można uzyskać bez większych trudności. Drugim powodem jest stosunkowa elastyczność finansowania w formie emisji obligacji w porównaniu z kredytem, banki wymagają bowiem szeregu zabezpieczeń, które to nie są zwyczajowo wymagane przez inwestorów rynku kapitałowego. Trzeci powód to efekt marketingowy spółki, spółka-emitent wchodząc na rynek międzynarodowy, umacnia swój wizerunek jako wiarygodny kredytobiorca – przekonuje Albert May z Citibanku.

Emisja obligacji daje możliwość dostępu do nieorganicznego kapitału w dłuższym okresie, przy niskim koszcie w porównaniu do kredytu. W większości przypadków firmy zaciągnęły już kredy na sfinansowanie swojej działalności, co w praktyce zamyka dalszą drogę, poprzez liczne zabezpieczenia i gwarancje stosowane przy umowach kredytowych, na pozyskiwanie kapitału poprzez zaciągniecie kolejnej transzy kredytowej. Motywem emisji euroobligacji jest potrzeba ogromnych pieniędzy, których nie można pożyczyć od banku, ze względu na stawiane przezeń warunki dotyczące terminu spłaty czy odsetek mówi Władysław Bartoszewski – Dyrektor JP Morgan Polska. Obligacje nie zamykają drogi na pozyskanie dalszego kapitału, a wręcz przeciwnie są zaplanowane na emisje co roku, co dwa lub raz na cztery lata, w zależności od zapotrzebowania firmy na kapitał.

Obligacje kontra akcje

W przypadku emisji akcji przez spółki, najbardziej niekorzystną sytuacją jest utrata kontroli nad funkcjonowaniem firmy, uzależnionym od procentowej sprzedaży jej udziałów. W dłuższym okresie może to doprowadzić nawet do utraty większościowego pakietu spółki. Zwiększenie kapitału akcyjnego w głównej mierze powoduje spadek zysku netto przypadającego na jedną akcję, a to pośrednio wpływa na wycenę rynkową firmy. Emisja obligacji zasadniczo nie wpływa na wartość netto na jedną akcję. Oprócz tego wypłata dywidendy akcjonariuszom jest dokonywana z zysku netto, a odsetki wypłacane posiadaczom obligacji zaliczane są do kosztów uzyskania przychodu. Tak więc o ich wysokość ulega obniżeniu podstawa wymiaru podatku dochodowego. W porównaniu zaś do finansowania za pomocą emisji akcji koszt finansowania jest zdecydowanie niższy. Oczywiście nie każda spółka jest w stanie wyemitować obligacje na rynkach międzynarodowych. W swej czystej postaci np. tradycyjne euroobligacje to instrument finansowy odpowiedni dla spółek o stosunkowo wysokiej wiarygodności kredytowej posiadającej rating na poziomie inwestycyjnym- przekonuje Dyrektor Departamentu Bankowości Inwestycyjnej i Rynków Kapitałowych Citibank (Poland) S.A. W obu przypadkach obligacje stają się tańszą forma pozyskania dużego kapitału w stosunkowo krótkim czasie przy niższym koszcie dla firmy bez ograniczeń kwotowych stawianych przez banki.

Od wyboru banku – organizatora emisji do sprzedaży papierów inwestorom

Emisja obligacji jest prowadzona przez organizatora tzw. Managera, który jest wybierany przez emitenta, najczęściej w drodze przetargu. W zależności od ilości kapitału oraz okresu emisji wybierany jest jeden lub kilku organizatorów – banków inwestycyjnych tworzących konsorcjum, będących jednocześnie gwarantem emisji. Zadanie postawione przed Managerem emisji jest bardzo trudne, gdyż on jest odpowiedzialny za koordynacje całej emisji, a w szczególności za ustalenie struktury sprzedaży, opracowanie dokumentacji, doradztwo w zakresie sprzedaży papierów, dobór potencjalnych odbiorów oraz strategia wejścia. Z tego też powodu taka współpraca w większości przypadków jest długofalowa i oparta na zaufaniu między emitenetem, a managerem lub co-managerami. W praktyce jeden z co-managerów prowadzi następne emisje, dlatego tak ważne jest tutaj odpowiednie dobranie banku inwestycyjnego na podstawie jego znajomości rynku, sprzedaży danego produktu na rynkach międzynarodowych z kraju emitenta. Naturalnie nie można tu zapomnieć o przeliczeniu prowizji i kosztów oraz symulacji wyceny papierów w momencie przeprowadzania emisji.

Po wyborze banku organizatora – Managera emisji, czas jaki jest potrzebny na przeprowadzenie emisji obligacji waha się w granicach 11 tygodni. Jak twierdzi May z Citibanku – przygotowanie emisji obligacji zajmuje około 10-12 tygodni. Podczas tego okresu spółka we współpracy ze doradcą ratingowym, którym najczęściej jest organizator emisji, koncentruje się na uzyskaniu jak najwyższej oceny ratingowej. Proces ten zajmuje około 6 tygodni. W tym samym czasie opracowywany jest projekt memorandum informacyjnego oraz na koniec jego druk. Cały ten proces trwa około 4-5 tygodni. Pod koniec przygotowań przed określeniem ceny obligacji odbywa się kilkudniowe roadshow. Na czas kilku tygodni składają się między innymi: badania wewnętrzne firmy tzw. Due diligence, przygotowanie formalnych prezentacji dla Agencji Ratingowych celem uzyskania odpowiednich ocen ratingowych, przygotowanie projektu oraz finalny druk Memorandum Informacyjnego, formalne prezentacje dla potencjalnych inwestorów tzw, Roadshow, wycena obligacji oraz zamknięcie transakcji, czyli sprzedaży papierów inwestorom. Proces ten jest krótszy w przypadku kolejnych emisji.

Przy emisji obligacji na rynkach międzynarodowych standardem jest emisja na prawodawstwie angielskim lub też prawie stanu Nowy Jork. Praktyką jednak stało się również otwieranie specjalnych spółek tzw. spółek (BV) w Holandii, opartych na prawodawstwie tego państwa, w celu uniknięcia problemów prawnych w porównaniu do prawodawstwa innych państw. Trzeba tu przypomnieć, że Polska podpisała umowę o unikaniu podwójnego opodatkowania z Holandią, a stawki podatkowe są relatywnie niższe, co w praktyce przemawia za obniżeniem kosztów i skorzystanie z możliwych zwolnień podatkowych.

Same zalety

Jeżeli emisja obligacji została sprzedana z nadsubskrypcją można to uznać za sukces emisji – tłumaczy to zjawisko Albert May – Nadsubskrypcja emisji może mieć również bardzo dobry efekt marketingowy dla przyszłych emisji dokonywanych przez tą spółkę – umożliwia bowiem w przypadku przyszłych emisji uzyskanie atrakcyjniejszej ceny dla emitenta. Spółka jest już znana inwestorom, a pamiętając o sukcesie poprzednich emisji inwestorzy skłonni są zaakceptować relatywnie niższą rentowność w porównaniu do spółek o zbliżonej charakterystyce lecz będących debiutującymi emitentami. W tym też celu managerowie tworzą listę potencjalnych inwestorów, by osiągnąć możliwie najniższą marżę oraz maksymalizować obszar dotarcia przy wstępnych prezentacjach. Aby osiągnąć taki stan należy wybrać taki bank, który jest znany na rynku międzynarodowym oraz jest w stanie bardzo dobrze zaprezentować firmę inwestorom instytucjonalnym. W tym celu korzysta się z tzw. Roadshow czyli formalnych prezentacji dla potencjalnych inwestorów instytucjonalnych – w praktyce są to spotkania tzw. „one to one”.

Forma prezentacji to personalny kontakt z zarządem firmy, a co ważniejsze możliwość bezpośredniego zadawania pytań dotyczących działalności przedsiębiorstwa, jej wyników finansowych oraz na jaki cel zostaną przeznaczone pozyskane środki, czy dalsze plany strategiczne. Naturalnie celem takiej prezentacji jest przekonanie inwestora o zainwestowaniu w nasze papiery. Inwestorzy budują swoje zaufanie do spółki na podstawie dostępności zarządu, sytuacji kredytowej spółki i relatywnej wartości kraju emitenta. Nie umiejętna kampania na rzecz obligacji przykładowo zbyt duży marketing przy małej wiarygodności spółki lub przejaskrawienie jej powoduje, że może to odbić się negatywnie na jej wycenie, a co się z tym wiąże sprzedaży papierów.

Trzeba pamiętać, że emisja obligacji, a w szczególności euroobligacji na rynkach międzynarodowych, to nie tylko praktyczny dostęp do nie ograniczonych środków przy niskim koszcie w długim okresie czasu, ale również, co staje się ważne wejście przedsiębiorstwa na rynki międzynarodowe. Korzyści z emisji euroobligacji są takie, że ma się dostęp praktycznie do nieograniczonego kapitału. Ten kapitał można dostać długoterminowo. Firmy mogą wtedy bez ograniczeń brać fundusze na rozwój itp. – przekonuje Dyrektor JP Morgan Polska. Poprzez szereg prezentacji oraz spotkań spółka zaprezentuje swoją działalność poza swoim krajem i potencjalnie zyskuje nowych klientów i zaufanie na rynku międzynarodowym. Przedsiębiorstwo staje się bardziej międzynarodowe, bo po prostu jest notowane w umysłach inwestorów. Inaczej traktują oni taką firmę – mówi Bartoszewski. Unikalną rzeczą przy emisji obligacji jest również to, że emisje na rynkach międzynarodowych można i powinno się przeprowadzać cyklicznie w zależności od zapotrzebowania na kapitał przez przedsiębiorstwo.

Marcin Jałowiecki

image_pdf