Analiza trendów w przemyśle farmaceutycznym. Czym tak naprawdę są OOT i jak je efektywnie wykrywać.

W związku z obowiązującymi wytycznymi oraz wprowadzonymi najnowszymi zmianami, analiza trendów i ciągła weryfikacja procesów to gorący temat, który dotyczy coraz szerszego zakresu parametrów jakościowych i procesowych. Można wręcz powiedzieć, że już wkrótce staniemy przed zagadnieniem trendowania wszystkich parametrów opisujących produkt oraz cały proces jego produkcji.

Myśląc o analizie trendów musimy rozważać zagadnienia wykraczające poza samą analizę danych, obejmujące gromadzenie wyników, ich bieżący monitoring wg odpowiednich algorytmów oraz system informowania o niepokojących zjawiskach. Już same organy regulacyjne podkreślają znaczenie przechowywania danych np. wyniki testów laboratoryjnych, wydajności czy kontroli środowiska należy przechowywać w takiej postaci i ilości, aby możliwa była ich ocena pod kątem występowania trendów. Natomiast odpowiednie podejście do pozostałych elementów to już wygoda i wydajność naszej pracy oraz możliwość reagowania na bieżąco na określone zdarzenia.

Punkt odniesienia do określania odchyleń

Pamiętajmy, że występowanie trendu (czyli zmiany wartości parametru w zależności od upływu czasu) w przypadku parametrów, które mają po prostu taką charakterystykę (np. w badaniach stabilności) jest zjawiskiem normalnym. Podjęcia odpowiednich działań wymaga natomiast występowanie sytuacji odbiegającej od dotychczas rejestrowanych przebiegów w niekorzystnym kierunku. Dokładnie w ten sposób będziemy podchodzić do identyfikowania OOT (Out Of Trend), jako odejście od przyjętych wzorców.

W pierwszej kolejności musimy określić wzorce, do których będziemy porównywać aktualne wartości. W tym celu powinniśmy poddać analizie zbiory danych historycznych opisujących przebiegi interesujących nas parametrów. Już na tym etapie prac samo zgromadzenie danych może stanowić spore wyzwanie, jeśli do tej pory polegaliśmy na „standardowych” sposobach rejestrowania i przechowywania wyników w postaci arkuszy xls i zapisów papierowych. Natomiast ta część zakładów, która już posiada systemy skomputeryzowane, pozwalające gromadzić i przechowywać wyniki badań oraz charakterystyki procesu produkcyjnego, może korzystając z odpowiednich narzędzi przystąpić do prac związanych z wyznaczaniem wzorców na podstawie kompletu informacji.

Może się zdarzyć, że wśród historycznych wyników będą też takie, dla których wystąpiły jakieś zakłócenia czy odchylenia, dlatego powinniśmy dokładnie przejrzeć dane i wykluczyć te, które nie odzwierciedlają poprawnego stanu. W ten sposób uzyskamy rzetelny obraz przebiegu danego parametru, ocenimy jego charakterystykę i na tej podstawie możemy wyznaczyć wzorzec dla pomiarów, które pojawią się w przyszłości.  Zwróćmy uwagę, że wyznaczenie wzorców nie jest zadaniem jednorazowym, powinniśmy okresowo dokonywać oceny, sprawdzać ich aktualność oraz ewentualnie wykonać ich kalibrację np. po zmianach w procesie.

Wybrane techniki wykrywania odchyleń

W zależności od tego, czy mamy do czynienia z danymi, dla których oczekujemy zależności pomiędzy wartościami a czasem, czy też nie przewidujemy jej występowania, podejście do ich analizy będzie inne. Znaczenie również będzie miał charakter zmienności tych danych, ponieważ inaczej należy podejść do analizy jeśli zależność parametru od czasu jest liniowa, a inaczej kiedy badana cecha szybko osiąga np. wysoką wartość, która później utrzymuje się na jednym poziomie ulegając nieznacznym zmianom.

Pojedyncze odchylenie

W przypadku liniowego układu danych, czyli takiego, który nie powinien wykazywać stałego wzrostu lub spadku w czasie, najprostszym zjawiskiem OOT może być odchylenie wartości kolejnego wyniku w stosunku do założonej wartości obliczanej na podstawie wartości początkowej np. o 5%. Taka zmiana sugeruje pojawienie się zmiany mogącej wskazywać na dryf parametru, a co za tym idzie, wcześniejsze przecięcie linii specyfikacji w przypadku badania stabilności. W związku z tym możemy traktować takie zdarzenie jako sygnał wskazujący na pojawienie się trendu. Trzeba jednak zwrócić uwagę, że warunek taki jest wyznaczony a priori. Tutaj warto zacytować jednego z ojców statystyki w jakości, Edwarda Deminga: „Bez danych jesteśmy kolejną osobą tylko z własną opinią”, co oznacza że takie podejście bez analizy wcześniejszych informacji może nie być skuteczne.

Bardziej zgodnym ze sztuką sposobem określenia takiej odchyłki jest wyznaczenie „odległości” od standardowego poziomu dla parametru, stosując podejście proponowane np. przez karty kontrolne Shewharta.

Zmiana nachylenia

Innym testem wykrywającym istnienie trendu może być ocena nachylania linii regresji. Wynik oceny istotności różnic nachylania dla trendu liniowego może być sygnałem OOT, informującym o zmianie charakteru trendu względem sytuacji oczekiwanej [rys. 1]. W przypadku, gdy wzorcowa linia trendu jest nachylona ku górze, wówczas jeśli analizowana zależność wykazuje istotną różnicę nachylenia prostej regresji i to w górę, wówczas istnieje ryzyko zmiany punktu przecięcia z limitami specyfikacji. Natomiast w tej sytuacji gdyby zmiana trendu odchylona była w dół, to co prawda mamy zmianę, jednak w korzystanym dla nas kierunku.

Oczywiście do zastosowania tego podejścia potrzebne jest wcześniejsze zbudowanie modelu, a do tego potrzeby jest odpowiedni zestaw danych historycznych. Odpowiedni to znaczy taki, który nie jest obarczony błędami pomiarowymi i dane pochodzą z produktów, które uznaliśmy za spełniające wymagania jakościowe. Mogą to być przykładowo dane z serii walidacyjnych. W tym miejscu należy zwrócić uwagę, że wyznaczenie wzorcowego nachylenia dla przykładowo 100 produktów, z których każdy ma 5 parametrów jakościowych tego typu, oznacza przeprowadzanie 500 analiz (nie licząc wcześniejszego przygotowania danych). Zastosowanie takiego podejścia bez dedykowanego systemu informatycznego jest więc mało realne w warunkach produkcyjnych. Dodatkowym zagadnieniem jest potrzeba korygowania wzorcowych modeli, po zmianach w procesach produkcyjnych.

Nowy obraz (7)

Rys.1  Porównanie szybkości liniowych zmian parametrów (rozwiązanie TrendComplex)

Zmiany skokowe

W przypadku parametrów, które zmieniają się skokowo można zastosować kryterium oceny poziomu początkowego. Można tak oceniać parametr w przypadku, gdy pierwszy pomiar (lub kilka kolejnych) znajduje się na pewnym poziomie, a następnie gwałtownie zmienia się jego wartość, co niemniej jest zachowaniem naturalnym dla analizowanego parametru.

Wówczas, identyfikując standardową wielkość tego skoku możemy poddać ocenie pierwszy pomiar (lub kilka kolejnych) i jeśli znajduje się on na odpowiednim poziomie, to wiadomo, że jeśli zajdzie jego standardowa skokowa zmiana, to nie będzie zagrożenia wyjścia poza specyfikację. Natomiast, jeśli poziom początkowy będzie np. niższy niż zazwyczaj, to następujący później spadek wielkości spowoduje, że kolejny wynik może być pod limitem.

Zatem w przypadku takich parametrów możemy identyfikować OOT jako poziom pierwszego pomiaru, z którego wynika, że jeśli parametr wykona swój standardowy skok, to znajdzie się poza specyfikacją [rys 2]. W zasadzie podejście to jest pewną modyfikacją standardowej karty kontrolnej dla specyficznych typów parametrów, które charakteryzują się nieliniową zmianą w czasie – o czym jest mowa dalej.

Nowy obraz (6)

Rys. 2 Skokowa zmiana wartości parametru

Zmiany nieliniowe

Kolejną sytuacją, z którą możemy mieć do czynienia to parametr, którego zależność od czasu nie jest liniowa. Przykładem takiego trendu może być zanieczyszczenie, którego wartość w początkowej fazie szybko rośnie a następnie ulega nasyceniu. Często odpowiednim podejściem jest zastosowanie transformacji logarytmicznej na osi czasu, co pozwoli dla tak przekształconych danych uzyskać zależność liniową i wykonywać dalsze analizy na danych przekształconych do postaci liniowej.

Po procesie linearyzacji możemy więc wykorzystać techniki analizy takie jak w przypadku zależności liniowej, tylko dla danych przekształconych. Możemy oceniać np. różnicę nachyleń trendu, czy też zastosować opisaną dalej kartę kontrolną regresji. Typowa nieliniowa zależność jest przedstawiona na rysunku 3. Różnica polegać będzie na interpretacji wyników, które teraz na osi czasu mają inną skalę, więc po wykonaniu analizy, należy powrócić do „naturalnej” osi czasu aby odpowiednio zinterpretować wynik analizy, a co za tym idzie poprawnie ocenić wystąpienie ewentualnego zdarzenia OOT.

Nowy obraz (5)

Rys. 3 Przykład złego dopasowania zależności liniowej do danych zmieniających się w sposób nieliniowy.

Karta kontrolna regresji

W przypadku, kiedy rozważany parametr z natury zmienia się liniowo w czasie, w zastosowanej analizie należy uwzględnić tę cechę. Innymi słowy zastosowana analiza musi ignorować naturalny trend parametru i skupić się na ewentualnym odejściu od tego wzorca. Funkcję taką może spełnić karta kontrolna regresji, która jest budowana podobnie jak zwykła karta kontrolna ale z tą różnicą, że linia centralna „podąża” za naturalnym trendem (jest to prosta regresji) i w oparciu o nią tworzone są linie kontrolne, w których powinny być zawarte wyniki jeżeli nie ma sygnału OOT. Przykład takiej karty prezentuje rysunek 4. Zauważmy, że karta może być zastosowana zarówno do rzeczywistych danych, które charakteryzują się zmiennością liniową jak i takich, dla których zmienność jest nieliniowa ale zostały odpowiednio przekształcone.

Dodatkowo, posługując się tego typu analizą, można oprócz samego wykrywania OOT oszacować prawdopodobieństwo przekroczenia przez badany parametr limitu, przed założonym terminem ważności [rys. 4]. Dzięki temu osoby analizujące jakość, dostają informację np. o zmianie takiego ryzyka po wprowadzeniu zmian w procesie. Można to oszacować obliczając odległość linii regresji w jednostkach σ (miary zmienności parametru wokół prostej), a następnie przenosząc to na wartość prawdopodobieństwa w oparciu o rozkład Gaussa.

Nowy obraz (4)

Rys. 4 Przykładowy układ karty kontrolnej regresji.

Zakresy zmienności

Nie wszystkie parametry można zamodelować w postaci prostej regresji liniowej, nawet po przekształceniu i wtedy rozsądną metodą identyfikacji zmiany takiego parametru może być podejście „inżynierskie” oparte na danych. Załóżmy, że parametr ma skomplikowaną zależność związaną z czasem i próba odtworzenia tej zależności równaniami matematycznymi, wprowadzi tylko dodatkową niepewność do procesu oceny odejścia od trendu. I tak w przypadku badań stabilności można potraktować każdy punkt czasowy jako oddzielny element do analizy i weryfikować, czy nowe dane w kolejnym punkcie nie przekraczają wyznaczonych dla tego konkretnego punktu granic (zakresu).

Opracowując wzorzec (granice) dla takiego parametru musimy skorzystać z technik statystycznych i wyznaczyć zakres parametru w każdym punkcie opierając się oczywiście na dostępnych danych historycznych. Po wyznaczeniu poszczególnych zakresów możemy je potraktować jako wspólny „kanał” [rys. 5], w którym w przyszłości powinny znaleźć się poprawne wyniki pomiarów. Następnie po prostu każdą nowo otrzymaną wartość porównujemy, czy mieści się w określonym przedziale dla danego punktu, a każde wyjście poza ten zakres będzie traktowane jako odejście od trendu.

 Nowy obraz (3)

Rys. 5. Przebieg zakresu wartości

Brak naturalnego trendu

Na koniec rozważmy najprostszy przypadek, czyli taki, w którym parametr nie powinien zmieniać się w czasie, natomiast jego zmienność wynika z błędów pomiarowych i różnych fluktuacji procesowych, z którymi musimy się po prostu pogodzić. Takim narzędziem, o ugruntowanej pozycji, do odróżniania przyczyn losowych (zmienność wynikająca np. z błędu standardowego metody pomiarowej) od przyczyn istotnych (zły produkt, błąd pomiaru), które określamy jako OOT, jest karta kontrolna. Ma ona dwie zalety, które nie są bez znaczenia w codziennej pracy: prostotę tworzenia analizy i łatwość interpretacji wyników.

W przypadku tego typu danych możemy też podjąć się oceny różnicy położenia wartości średnich. Otrzymując każdy kolejny wynik, wyznaczamy narastająco wartość średnią i oceniamy, czy pomiędzy nią, a wartością średnią wzorca występuje statystycznie istotna różnica która będzie równoznaczna z OOT [rys. 6]. Do tego celu możemy wykorzystać standardowy test statystyczny oparty np. na rozkładzie t-Studenta.

Nowy obraz (2)

Rys. 6. Wykrywanie różnicy przeciętnych wartości

Praktyczne rozwiązanie nietypowych zagadnień

Na tym etapie wiemy już jakie są wzorce, do których powinniśmy porównywać nowe wyniki oraz znamy techniki i kryteria identyfikacji OOT. Na tej podstawie możemy do każdego parametru przypisać odpowiednie zestawy warunków, według których ma być oceniany.

Teraz dochodzimy do kluczowego zagadnienia, które zamienia podejście retrospektywne na takie, które pozwala oceniać sytuację na bieżąco.  Naszym celem jest przecież wykrywanie niepożądanych zjawisk w momencie ich wystąpienia, co pozwoli na podjęcie odpowiednich działań, a nie stwierdzenie faktu zaistnienia OOT i to po upływie dłuższego okresu czasu (co najczęściej ma miejsce podczas zestawiania danych na potrzeby rocznego przeglądu jakości).

W tym celu potrzebujemy kilku współpracujących ze sobą elementów, stanowiących jedno kompleksowe rozwiązanie informatyczne.

Dedykowane dla sektora farmaceutycznego i dostosowywane do potrzeb klientów systemy informatyczne w tym obszarze dostarcza firma DataComplex (www.datacomplex.pl), której eksperci posiadają prawie 15 letnie doświadczenie w opracowywaniu i wdrażaniu systemów IT w obszarze gromadzenia i analizy danych w farmacji.

Pierwszym elementem, którego „nie widać”, ale który jest fundamentem, to baza danych. Przechowywane są w niej dane historyczne (potrzebne do wyznaczania wzorców), metadane (opisujące znaczenie i charakterystyki parametrów), wzorce (z którymi porównywane będą nowe wartości) oraz na bieżąco gromadzone wyniki badań surowców, półproduktów, produktów gotowych, środowiska oraz parametrów procesu produkcji (które będą poddane monitoringowi i analizie trendów). Baza danych, oprócz przechowywania danych, zapewnia ich rzetelność i spójność oraz przechowuje je w układzie umożliwiającym tworzenie analiz, zestawień i raportów w dowolnych przekrojach.

Drugi element to zasilanie bazy nowymi wartościami wyników badań i parametrów procesu. Część informacji może być automatycznie pobierana z już istniejących systemów skomputeryzowanych (typu LIMS, ERP czy MES) lub z plikowych źródeł danych. Wyniki mogą być również wprowadzane przez pracowników technologicznych lub w laboratorium i dlatego potrzebny jest również wygodny interfejs ręcznego wprowadzania danych. Tutaj od razu dochodzimy do funkcjonalności analitycznej, ponieważ osoba wprowadzająca kolejne pomiary powinna od razy otrzymać informację zwrotną oceniającą dany wynik i system powinien automatycznie porównać go z zaimplementowanymi wzorcami i w razie wystąpienia OOT natychmiast o tym poinformować. W takim przypadku ważne jest też, aby taka osoba mogła w prosty sposób (korzystając z narzędzi analitycznych) zobaczyć wyniki analizy trendu dla takiego parametru i na tej podstawie ocenić sytuację. Nie wymagajmy jednak, aby pracownik laboratorium, który świetnie zna techniki analityczne był jednocześnie specjalistą statystykiem. Przy aktualnym rozwoju technologii informatycznych tego typu zadania są realizowane automatycznie przez odpowiednie, dedykowane rozwiązania a praca z nimi ogranicza się jedynie do przejrzenia danych i oceny dostarczonych kompleksowych i skomentowanych wyników analiz statystycznych.

Rzeczywiście, posiadając odpowiednie rozwiązanie informatyczne łatwo wyobrazić sobie sytuację, że osoba, która na co dzień zajmuje się badaniami jakiegoś parametru, wprowadza jego wyniki i na bieżąco otrzymuje informację zwrotną z oceną istnienia ewentualnego OOT. Nie jest natomiast powiedziane, że analiza trendów jest obowiązkiem tej właśnie osoby i trudno też jej będzie ocenić, co dzieje się z pozostałymi parametrami, seriami i produktami.

Znów przydatne okazują się rozwiązania, od dawna już stosowane w przemyśle produkcyjnym – syntetyczne tablice informacyjne. Przy pomocy jednego pulpitu możemy obserwować aktualną ocenę poszczególnych parametrów dla wszystkich serii produktu lub też dla wszystkich parametrów i produktów [rys. 7]. Zasada działania opiera się na wizualizacji (zazwyczaj w postaci kolorowych kafelków) wyników różnorodnych testów i ocen przeprowadzanych automatycznie przez system. W ten sposób możemy się dowiedzieć, czy np. wszystkie badania zostały wykonane w terminie i czy wprowadzono wszystkie wymagane wyniki, czy istnieje ryzyko przekroczenia limitów przez dany parametr, czy w danych wstępuje trend, czy zidentyfikowano OOT i na podstawie którego kryterium. Przy wdrożeniu takiego rozwiązania należy zawsze dokładnie ustalić zakres i sposób prezentowania informacji na takiej tablicy, aby później użytkownik mógł łatwo ocenić sytuację, przeglądając najważniejsze komunikaty.

Nowy obraz (1)

Rys.7  Przykładowa tablica informacyjna w rozwiązaniu StabilityComplex (www.datacomplex.pl)

Oprócz możliwości śledzenia on-line przebiegu parametrów, system na bieżąco zapisuje w bazie danych wprowadzane lub automatycznie pobierane wyniki badań oraz parametry procesu. Dlatego w każdym momencie może wykonać, zgodnie z zaimplementowanymi szablonami analizę, zestawienie lub raport. W ten sposób określając interesujący zakres informacji, można natychmiast otrzymać np. gotowy kompletny raport na potrzeby rocznego przeglądu jakości.

Ponieważ opisywane zagadnienie mocno wiąże obszary danych historycznych, bieżącego gromadzenia wyników i parametrów, wielowariantowego monitorowania on-line dużej ilości informacji z wykorzystaniem technik analizy danych, jedynie dedykowany system informatyczny jest w stanie spełnić te wszystkie role, oszczędzić ogromne ilości czasu, pozwolić spełnić wymogi stawiane przez przepisy oraz dodatkowo zwiększyć bezpieczeństwo produkowanych preparatów.

Opracowali:

Michał Iwaniec

Mirosław Popieluch

DataComplex

www.datacomplex.pl

Opublikował: Ph.D Sebastian Czajka

www.gppharma.pl , materiały dla www.e-gmp.pl

 

Odcinek 2: Statystyki opisowe – miary położenia.

Wstęp

Po ustaleniu celu badania, określając zbiorowość statystyczną musimy również ściśle ustalić, co jest jednostką statystyczną. O każdej jednostce zbieramy, bowiem informacje. Na przykład niech celem badania będzie poznanie reakcji organizmu osób cierpiących na pewną chorobę po podaniu nowo wyprodukowanego leku. Jednostką statystyczną będzie wówczas każdy z 200 pacjentów leczonych na daną chorobę w określonym szpitalu. Właściwe zdefiniowanie jednostek badanych jest bardzo ważne, ponieważ od tego zależy poprawność i dokładność obrazu rzeczywistości. Cechy wyróżniające jednostki wchodzące w skład badanej zbiorowości nazywamy cechami statystycznymi. Zbiorowość statystyczna może mieć dużo rozmaitych cech. W  zależności od celu badania wybieramy tylko niektóre z nich, najważniejsze w  odniesieniu do interesującego nas problemu.

Rozróżniamy trzy zasadnicze typy cech: jakościowe, porządkowe i ilościowe (rys. 1).

Źródło: Medycyna Praktyczna

Pełna treść artykułu: kliknij

Odcinek 1: Wstęp. Dobór grupy próbnej

Wstęp

Statystyką posługujemy się wszyscy. Każdy z nas bardzo często mówi o różnych średnich, korelacjach i trendach. Nawet w prostych wypowiedziach, na przykład: „w tym sklepie jest drogo” albo „w tamtej instytucji dobrze zarabiają”, sięgamy do uogólnień, których korzenie tkwią w technikach statystycznych. Mimo pozornie trudnej terminologii i skomplikowanych wzorów statystykę łatwo zrozumieć. Ogólnie rzecz biorąc, jest to sztuka wyciągania maksymalnie wiarygodnych wniosków w sytuacji, gdy mamy wiele danych, a każda z nich jest nieco inna od pozostałych. Różnice między nimi wynikające z przypadkowości mogą nasuwać błędne konkluzje. Gwałtowny rozwój nauki i techniki zwiększył zapotrzebowanie na metody statystyczne. Statystyka „sprawdziła” się w wielu ważnych dziedzinach, między innymi w fizyce i ekonomii. Czas więc przestać traktować ją z tak wielką nieufnością, jest bowiem doskonałym narzędziem eliminującym przypadkowe zakłócenia pojawiające się w obserwacjach biologicznych, także medycznych. Niemal we wszystkich publikacjach przedstawiających wyniki badań eksperymentalnych w medycynie stosuje się coraz bardziej skomplikowane procedury statystyczne. Można bez przesady stwierdzić, że właśnie dzięki statystyce powstają najnowsze zasady diagnostyki i leczenia chorób. Większość lekarzy nie wie jednak, kiedy i jakie techniki statystyczne wykorzystać.

Źródło: Medycyna Praktyczna

Pełny tekst artykułu: kliknij

Michał Kusy, StatSoft Polska Sp. z o.o.

Niniejszy artykuł stanowi fragment wykładu, którego całość będzie można wysłuchać na drugiej edycji konferencji szkoleniowej „Praktyczna Analiza danych dla Przemysłu Farmaceutycznego”, która odbędzie się w dniach 21-22 maja w Krakowie. Więcej informacji na temat tej konferencji można znaleźć na stronie firmy StatSoft.

Wprowadzenie

Analiza danych w kontroli środowiska produkcji i magazynowania opiera się między innymi na szeregu metod wykrywania trendów. Pojawienie się trendu w wartościach kontrolowanego parametru może sugerować wpływ czynników zewnętrznych, które zakłócają proces produkcji (np. nieprawidłowe funkcjonowanie urządzeń wentylacyjnych, wzrost temperatury zewnętrznej itp.). Szczególnie rygorystyczne normy, jakim podlega przemysł farmaceutyczny, sprawiają, że utrata kontroli nad zachowaniem parametrów kluczowych dla procesu jest zjawiskiem wyjątkowo niekorzystnym. Zgodność z regulacjami FDA dotyczącymi dobrej praktyki wytwarzania (GMP) w farmacji wiąże się zatem z  potrzebą kontroli kluczowych parametrów i przeprowadzania analizy trendów, która pozwoli ograniczyć ich wpływ na przebieg produkcji.

Czytaj dalej

dniach 21-22 maja w Krakowie odbędzie się organizowana przez firmę StatSoft druga edycja konferencji szkoleniowej „Praktyczna Analiza danych dla Przemysłu Farmaceutycznego”.

Będzie ona poświecona praktycznym aspektom stosowania analizy danych w przemyśle farmaceutycznym. Swoją wiedzą i doświadczeniem podzielą się specjaliści z branży na co dzień korzystający z narzędzi analizy danych oraz pracownicy StatSoft uczestniczący w wielu wdrożeniach rozwiązań analitycznych w przedsiębiorstwach farmaceutycznych w kraju i za granicą.

Czytaj dalej