Szanowni Państwo!!!

Nasza Koleżanka Ania Majchrzycka Pracownik firmy farmaceutycznej Działu Analityki Badawczo-Rozwojowej stanęła przed najważniejszą walką w jej życiu. Przeciwnikiem jest nowotwór mózgu.

Prosimy!!! jako cały zespół E-GMP wszystkich o pomoc we wsparciu finansowym.

Do osób, które nie rozliczyły jeszcze podatku apeluję o przekazanie 1% na leczenie Ani.

Wpisz do PITu numer 0000358654 Alivia Fundacja Onkologiczna

W celu szczegółowym Anna Majchrzycka nr 110565

Również uruchomione zostało konto Alivi dla Ani. Poniżej link do strony, z której można dokonywać wpłat:

Skarbonka dla Ani

Z wyrazami szacunku dla osób których pomagają

Zespół E-GMP

Analiza trendów w przemyśle farmaceutycznym. Czym tak naprawdę są OOT i jak je efektywnie wykrywać.

W związku z obowiązującymi wytycznymi oraz wprowadzonymi najnowszymi zmianami, analiza trendów i ciągła weryfikacja procesów to gorący temat, który dotyczy coraz szerszego zakresu parametrów jakościowych i procesowych. Można wręcz powiedzieć, że już wkrótce staniemy przed zagadnieniem trendowania wszystkich parametrów opisujących produkt oraz cały proces jego produkcji.

Myśląc o analizie trendów musimy rozważać zagadnienia wykraczające poza samą analizę danych, obejmujące gromadzenie wyników, ich bieżący monitoring wg odpowiednich algorytmów oraz system informowania o niepokojących zjawiskach. Już same organy regulacyjne podkreślają znaczenie przechowywania danych np. wyniki testów laboratoryjnych, wydajności czy kontroli środowiska należy przechowywać w takiej postaci i ilości, aby możliwa była ich ocena pod kątem występowania trendów. Natomiast odpowiednie podejście do pozostałych elementów to już wygoda i wydajność naszej pracy oraz możliwość reagowania na bieżąco na określone zdarzenia.

Punkt odniesienia do określania odchyleń

Pamiętajmy, że występowanie trendu (czyli zmiany wartości parametru w zależności od upływu czasu) w przypadku parametrów, które mają po prostu taką charakterystykę (np. w badaniach stabilności) jest zjawiskiem normalnym. Podjęcia odpowiednich działań wymaga natomiast występowanie sytuacji odbiegającej od dotychczas rejestrowanych przebiegów w niekorzystnym kierunku. Dokładnie w ten sposób będziemy podchodzić do identyfikowania OOT (Out Of Trend), jako odejście od przyjętych wzorców.

W pierwszej kolejności musimy określić wzorce, do których będziemy porównywać aktualne wartości. W tym celu powinniśmy poddać analizie zbiory danych historycznych opisujących przebiegi interesujących nas parametrów. Już na tym etapie prac samo zgromadzenie danych może stanowić spore wyzwanie, jeśli do tej pory polegaliśmy na „standardowych” sposobach rejestrowania i przechowywania wyników w postaci arkuszy xls i zapisów papierowych. Natomiast ta część zakładów, która już posiada systemy skomputeryzowane, pozwalające gromadzić i przechowywać wyniki badań oraz charakterystyki procesu produkcyjnego, może korzystając z odpowiednich narzędzi przystąpić do prac związanych z wyznaczaniem wzorców na podstawie kompletu informacji.

Może się zdarzyć, że wśród historycznych wyników będą też takie, dla których wystąpiły jakieś zakłócenia czy odchylenia, dlatego powinniśmy dokładnie przejrzeć dane i wykluczyć te, które nie odzwierciedlają poprawnego stanu. W ten sposób uzyskamy rzetelny obraz przebiegu danego parametru, ocenimy jego charakterystykę i na tej podstawie możemy wyznaczyć wzorzec dla pomiarów, które pojawią się w przyszłości.  Zwróćmy uwagę, że wyznaczenie wzorców nie jest zadaniem jednorazowym, powinniśmy okresowo dokonywać oceny, sprawdzać ich aktualność oraz ewentualnie wykonać ich kalibrację np. po zmianach w procesie.

Wybrane techniki wykrywania odchyleń

W zależności od tego, czy mamy do czynienia z danymi, dla których oczekujemy zależności pomiędzy wartościami a czasem, czy też nie przewidujemy jej występowania, podejście do ich analizy będzie inne. Znaczenie również będzie miał charakter zmienności tych danych, ponieważ inaczej należy podejść do analizy jeśli zależność parametru od czasu jest liniowa, a inaczej kiedy badana cecha szybko osiąga np. wysoką wartość, która później utrzymuje się na jednym poziomie ulegając nieznacznym zmianom.

Pojedyncze odchylenie

W przypadku liniowego układu danych, czyli takiego, który nie powinien wykazywać stałego wzrostu lub spadku w czasie, najprostszym zjawiskiem OOT może być odchylenie wartości kolejnego wyniku w stosunku do założonej wartości obliczanej na podstawie wartości początkowej np. o 5%. Taka zmiana sugeruje pojawienie się zmiany mogącej wskazywać na dryf parametru, a co za tym idzie, wcześniejsze przecięcie linii specyfikacji w przypadku badania stabilności. W związku z tym możemy traktować takie zdarzenie jako sygnał wskazujący na pojawienie się trendu. Trzeba jednak zwrócić uwagę, że warunek taki jest wyznaczony a priori. Tutaj warto zacytować jednego z ojców statystyki w jakości, Edwarda Deminga: „Bez danych jesteśmy kolejną osobą tylko z własną opinią”, co oznacza że takie podejście bez analizy wcześniejszych informacji może nie być skuteczne.

Bardziej zgodnym ze sztuką sposobem określenia takiej odchyłki jest wyznaczenie „odległości” od standardowego poziomu dla parametru, stosując podejście proponowane np. przez karty kontrolne Shewharta.

Zmiana nachylenia

Innym testem wykrywającym istnienie trendu może być ocena nachylania linii regresji. Wynik oceny istotności różnic nachylania dla trendu liniowego może być sygnałem OOT, informującym o zmianie charakteru trendu względem sytuacji oczekiwanej [rys. 1]. W przypadku, gdy wzorcowa linia trendu jest nachylona ku górze, wówczas jeśli analizowana zależność wykazuje istotną różnicę nachylenia prostej regresji i to w górę, wówczas istnieje ryzyko zmiany punktu przecięcia z limitami specyfikacji. Natomiast w tej sytuacji gdyby zmiana trendu odchylona była w dół, to co prawda mamy zmianę, jednak w korzystanym dla nas kierunku.

Oczywiście do zastosowania tego podejścia potrzebne jest wcześniejsze zbudowanie modelu, a do tego potrzeby jest odpowiedni zestaw danych historycznych. Odpowiedni to znaczy taki, który nie jest obarczony błędami pomiarowymi i dane pochodzą z produktów, które uznaliśmy za spełniające wymagania jakościowe. Mogą to być przykładowo dane z serii walidacyjnych. W tym miejscu należy zwrócić uwagę, że wyznaczenie wzorcowego nachylenia dla przykładowo 100 produktów, z których każdy ma 5 parametrów jakościowych tego typu, oznacza przeprowadzanie 500 analiz (nie licząc wcześniejszego przygotowania danych). Zastosowanie takiego podejścia bez dedykowanego systemu informatycznego jest więc mało realne w warunkach produkcyjnych. Dodatkowym zagadnieniem jest potrzeba korygowania wzorcowych modeli, po zmianach w procesach produkcyjnych.

Nowy obraz (7)

Rys.1  Porównanie szybkości liniowych zmian parametrów (rozwiązanie TrendComplex)

Zmiany skokowe

W przypadku parametrów, które zmieniają się skokowo można zastosować kryterium oceny poziomu początkowego. Można tak oceniać parametr w przypadku, gdy pierwszy pomiar (lub kilka kolejnych) znajduje się na pewnym poziomie, a następnie gwałtownie zmienia się jego wartość, co niemniej jest zachowaniem naturalnym dla analizowanego parametru.

Wówczas, identyfikując standardową wielkość tego skoku możemy poddać ocenie pierwszy pomiar (lub kilka kolejnych) i jeśli znajduje się on na odpowiednim poziomie, to wiadomo, że jeśli zajdzie jego standardowa skokowa zmiana, to nie będzie zagrożenia wyjścia poza specyfikację. Natomiast, jeśli poziom początkowy będzie np. niższy niż zazwyczaj, to następujący później spadek wielkości spowoduje, że kolejny wynik może być pod limitem.

Zatem w przypadku takich parametrów możemy identyfikować OOT jako poziom pierwszego pomiaru, z którego wynika, że jeśli parametr wykona swój standardowy skok, to znajdzie się poza specyfikacją [rys 2]. W zasadzie podejście to jest pewną modyfikacją standardowej karty kontrolnej dla specyficznych typów parametrów, które charakteryzują się nieliniową zmianą w czasie – o czym jest mowa dalej.

Nowy obraz (6)

Rys. 2 Skokowa zmiana wartości parametru

Zmiany nieliniowe

Kolejną sytuacją, z którą możemy mieć do czynienia to parametr, którego zależność od czasu nie jest liniowa. Przykładem takiego trendu może być zanieczyszczenie, którego wartość w początkowej fazie szybko rośnie a następnie ulega nasyceniu. Często odpowiednim podejściem jest zastosowanie transformacji logarytmicznej na osi czasu, co pozwoli dla tak przekształconych danych uzyskać zależność liniową i wykonywać dalsze analizy na danych przekształconych do postaci liniowej.

Po procesie linearyzacji możemy więc wykorzystać techniki analizy takie jak w przypadku zależności liniowej, tylko dla danych przekształconych. Możemy oceniać np. różnicę nachyleń trendu, czy też zastosować opisaną dalej kartę kontrolną regresji. Typowa nieliniowa zależność jest przedstawiona na rysunku 3. Różnica polegać będzie na interpretacji wyników, które teraz na osi czasu mają inną skalę, więc po wykonaniu analizy, należy powrócić do „naturalnej” osi czasu aby odpowiednio zinterpretować wynik analizy, a co za tym idzie poprawnie ocenić wystąpienie ewentualnego zdarzenia OOT.

Nowy obraz (5)

Rys. 3 Przykład złego dopasowania zależności liniowej do danych zmieniających się w sposób nieliniowy.

Karta kontrolna regresji

W przypadku, kiedy rozważany parametr z natury zmienia się liniowo w czasie, w zastosowanej analizie należy uwzględnić tę cechę. Innymi słowy zastosowana analiza musi ignorować naturalny trend parametru i skupić się na ewentualnym odejściu od tego wzorca. Funkcję taką może spełnić karta kontrolna regresji, która jest budowana podobnie jak zwykła karta kontrolna ale z tą różnicą, że linia centralna „podąża” za naturalnym trendem (jest to prosta regresji) i w oparciu o nią tworzone są linie kontrolne, w których powinny być zawarte wyniki jeżeli nie ma sygnału OOT. Przykład takiej karty prezentuje rysunek 4. Zauważmy, że karta może być zastosowana zarówno do rzeczywistych danych, które charakteryzują się zmiennością liniową jak i takich, dla których zmienność jest nieliniowa ale zostały odpowiednio przekształcone.

Dodatkowo, posługując się tego typu analizą, można oprócz samego wykrywania OOT oszacować prawdopodobieństwo przekroczenia przez badany parametr limitu, przed założonym terminem ważności [rys. 4]. Dzięki temu osoby analizujące jakość, dostają informację np. o zmianie takiego ryzyka po wprowadzeniu zmian w procesie. Można to oszacować obliczając odległość linii regresji w jednostkach σ (miary zmienności parametru wokół prostej), a następnie przenosząc to na wartość prawdopodobieństwa w oparciu o rozkład Gaussa.

Nowy obraz (4)

Rys. 4 Przykładowy układ karty kontrolnej regresji.

Zakresy zmienności

Nie wszystkie parametry można zamodelować w postaci prostej regresji liniowej, nawet po przekształceniu i wtedy rozsądną metodą identyfikacji zmiany takiego parametru może być podejście „inżynierskie” oparte na danych. Załóżmy, że parametr ma skomplikowaną zależność związaną z czasem i próba odtworzenia tej zależności równaniami matematycznymi, wprowadzi tylko dodatkową niepewność do procesu oceny odejścia od trendu. I tak w przypadku badań stabilności można potraktować każdy punkt czasowy jako oddzielny element do analizy i weryfikować, czy nowe dane w kolejnym punkcie nie przekraczają wyznaczonych dla tego konkretnego punktu granic (zakresu).

Opracowując wzorzec (granice) dla takiego parametru musimy skorzystać z technik statystycznych i wyznaczyć zakres parametru w każdym punkcie opierając się oczywiście na dostępnych danych historycznych. Po wyznaczeniu poszczególnych zakresów możemy je potraktować jako wspólny „kanał” [rys. 5], w którym w przyszłości powinny znaleźć się poprawne wyniki pomiarów. Następnie po prostu każdą nowo otrzymaną wartość porównujemy, czy mieści się w określonym przedziale dla danego punktu, a każde wyjście poza ten zakres będzie traktowane jako odejście od trendu.

 Nowy obraz (3)

Rys. 5. Przebieg zakresu wartości

Brak naturalnego trendu

Na koniec rozważmy najprostszy przypadek, czyli taki, w którym parametr nie powinien zmieniać się w czasie, natomiast jego zmienność wynika z błędów pomiarowych i różnych fluktuacji procesowych, z którymi musimy się po prostu pogodzić. Takim narzędziem, o ugruntowanej pozycji, do odróżniania przyczyn losowych (zmienność wynikająca np. z błędu standardowego metody pomiarowej) od przyczyn istotnych (zły produkt, błąd pomiaru), które określamy jako OOT, jest karta kontrolna. Ma ona dwie zalety, które nie są bez znaczenia w codziennej pracy: prostotę tworzenia analizy i łatwość interpretacji wyników.

W przypadku tego typu danych możemy też podjąć się oceny różnicy położenia wartości średnich. Otrzymując każdy kolejny wynik, wyznaczamy narastająco wartość średnią i oceniamy, czy pomiędzy nią, a wartością średnią wzorca występuje statystycznie istotna różnica która będzie równoznaczna z OOT [rys. 6]. Do tego celu możemy wykorzystać standardowy test statystyczny oparty np. na rozkładzie t-Studenta.

Nowy obraz (2)

Rys. 6. Wykrywanie różnicy przeciętnych wartości

Praktyczne rozwiązanie nietypowych zagadnień

Na tym etapie wiemy już jakie są wzorce, do których powinniśmy porównywać nowe wyniki oraz znamy techniki i kryteria identyfikacji OOT. Na tej podstawie możemy do każdego parametru przypisać odpowiednie zestawy warunków, według których ma być oceniany.

Teraz dochodzimy do kluczowego zagadnienia, które zamienia podejście retrospektywne na takie, które pozwala oceniać sytuację na bieżąco.  Naszym celem jest przecież wykrywanie niepożądanych zjawisk w momencie ich wystąpienia, co pozwoli na podjęcie odpowiednich działań, a nie stwierdzenie faktu zaistnienia OOT i to po upływie dłuższego okresu czasu (co najczęściej ma miejsce podczas zestawiania danych na potrzeby rocznego przeglądu jakości).

W tym celu potrzebujemy kilku współpracujących ze sobą elementów, stanowiących jedno kompleksowe rozwiązanie informatyczne.

Dedykowane dla sektora farmaceutycznego i dostosowywane do potrzeb klientów systemy informatyczne w tym obszarze dostarcza firma DataComplex (www.datacomplex.pl), której eksperci posiadają prawie 15 letnie doświadczenie w opracowywaniu i wdrażaniu systemów IT w obszarze gromadzenia i analizy danych w farmacji.

Pierwszym elementem, którego „nie widać”, ale który jest fundamentem, to baza danych. Przechowywane są w niej dane historyczne (potrzebne do wyznaczania wzorców), metadane (opisujące znaczenie i charakterystyki parametrów), wzorce (z którymi porównywane będą nowe wartości) oraz na bieżąco gromadzone wyniki badań surowców, półproduktów, produktów gotowych, środowiska oraz parametrów procesu produkcji (które będą poddane monitoringowi i analizie trendów). Baza danych, oprócz przechowywania danych, zapewnia ich rzetelność i spójność oraz przechowuje je w układzie umożliwiającym tworzenie analiz, zestawień i raportów w dowolnych przekrojach.

Drugi element to zasilanie bazy nowymi wartościami wyników badań i parametrów procesu. Część informacji może być automatycznie pobierana z już istniejących systemów skomputeryzowanych (typu LIMS, ERP czy MES) lub z plikowych źródeł danych. Wyniki mogą być również wprowadzane przez pracowników technologicznych lub w laboratorium i dlatego potrzebny jest również wygodny interfejs ręcznego wprowadzania danych. Tutaj od razu dochodzimy do funkcjonalności analitycznej, ponieważ osoba wprowadzająca kolejne pomiary powinna od razy otrzymać informację zwrotną oceniającą dany wynik i system powinien automatycznie porównać go z zaimplementowanymi wzorcami i w razie wystąpienia OOT natychmiast o tym poinformować. W takim przypadku ważne jest też, aby taka osoba mogła w prosty sposób (korzystając z narzędzi analitycznych) zobaczyć wyniki analizy trendu dla takiego parametru i na tej podstawie ocenić sytuację. Nie wymagajmy jednak, aby pracownik laboratorium, który świetnie zna techniki analityczne był jednocześnie specjalistą statystykiem. Przy aktualnym rozwoju technologii informatycznych tego typu zadania są realizowane automatycznie przez odpowiednie, dedykowane rozwiązania a praca z nimi ogranicza się jedynie do przejrzenia danych i oceny dostarczonych kompleksowych i skomentowanych wyników analiz statystycznych.

Rzeczywiście, posiadając odpowiednie rozwiązanie informatyczne łatwo wyobrazić sobie sytuację, że osoba, która na co dzień zajmuje się badaniami jakiegoś parametru, wprowadza jego wyniki i na bieżąco otrzymuje informację zwrotną z oceną istnienia ewentualnego OOT. Nie jest natomiast powiedziane, że analiza trendów jest obowiązkiem tej właśnie osoby i trudno też jej będzie ocenić, co dzieje się z pozostałymi parametrami, seriami i produktami.

Znów przydatne okazują się rozwiązania, od dawna już stosowane w przemyśle produkcyjnym – syntetyczne tablice informacyjne. Przy pomocy jednego pulpitu możemy obserwować aktualną ocenę poszczególnych parametrów dla wszystkich serii produktu lub też dla wszystkich parametrów i produktów [rys. 7]. Zasada działania opiera się na wizualizacji (zazwyczaj w postaci kolorowych kafelków) wyników różnorodnych testów i ocen przeprowadzanych automatycznie przez system. W ten sposób możemy się dowiedzieć, czy np. wszystkie badania zostały wykonane w terminie i czy wprowadzono wszystkie wymagane wyniki, czy istnieje ryzyko przekroczenia limitów przez dany parametr, czy w danych wstępuje trend, czy zidentyfikowano OOT i na podstawie którego kryterium. Przy wdrożeniu takiego rozwiązania należy zawsze dokładnie ustalić zakres i sposób prezentowania informacji na takiej tablicy, aby później użytkownik mógł łatwo ocenić sytuację, przeglądając najważniejsze komunikaty.

Nowy obraz (1)

Rys.7  Przykładowa tablica informacyjna w rozwiązaniu StabilityComplex (www.datacomplex.pl)

Oprócz możliwości śledzenia on-line przebiegu parametrów, system na bieżąco zapisuje w bazie danych wprowadzane lub automatycznie pobierane wyniki badań oraz parametry procesu. Dlatego w każdym momencie może wykonać, zgodnie z zaimplementowanymi szablonami analizę, zestawienie lub raport. W ten sposób określając interesujący zakres informacji, można natychmiast otrzymać np. gotowy kompletny raport na potrzeby rocznego przeglądu jakości.

Ponieważ opisywane zagadnienie mocno wiąże obszary danych historycznych, bieżącego gromadzenia wyników i parametrów, wielowariantowego monitorowania on-line dużej ilości informacji z wykorzystaniem technik analizy danych, jedynie dedykowany system informatyczny jest w stanie spełnić te wszystkie role, oszczędzić ogromne ilości czasu, pozwolić spełnić wymogi stawiane przez przepisy oraz dodatkowo zwiększyć bezpieczeństwo produkowanych preparatów.

Opracowali:

Michał Iwaniec

Mirosław Popieluch

DataComplex

www.datacomplex.pl

Opublikował: Ph.D Sebastian Czajka

www.gppharma.pl , materiały dla www.e-gmp.pl

 

SZKOLENIA

Webinarium

„Analiza trendów w przemyśle farmaceutycznym”. Czym tak naprawdę są OOT i jak je efektywnie wykrywać.”

Już 23 marca podczas bezpłatnego szkolenia organizowanego przez ekspertów w zakresie systemów gromadzenia, analizy i monitorowania on-line danych jakościowych i produkcyjnych w sektorze farmaceutycznym z firmy DataComplex, będzie można zapoznać się z kompleksowym podejściem do analizy trendów i OOT.

Obszerniejszy opis: kliknij

Development and  Submission of Near  Infrared Analytical  Procedures Guidance for Industry

link do pobrania wytycznej: UCM440247

Załącznik 7 wytyczne WHO dotyczące transferu technologii w przemyśle farmaceutycznym

PLIK DO POBRANIA:TransferTechnologyPharmaceuticalManufacturing

images TRANSFER

Miareczkowanie Karla Fischera – metoda miareczkowaniachemii analitycznej do oznaczania niewielkich ilości wody w próbce. W metodzie tej stosuje się miareczkowanie kulometryczne lub wolumetryczne. Metodę opracował w 1935 roku niemiecki chemik Karl Fischer (1901–1958).

W załącznikach prezentujemy wytyczne do wykonania walidacji metody Analitycznej, oznaczania wody w substancji metodą Karla Fischera: 

International Research Jurnal of Pharmacy (ISSN 2230-8407)

załącznik 1: Karl Fischer

Application Bulletin 255/3 e

Validation of Metrohm KF Titrators according to GLP/ISO 9001

załącznik 2: Metrohm

220px-KF_Titrator

Miareczkowanie kulometryczne

W głównej komorze naczynia miareczkowego znajduje się roztwór anodowy z analitem. Roztwór anodowy zawiera alkohol (ROH), zasadę (B), SO2I2. Typowym alkoholem, który można użyć, jest metanol lub eter etylowy glikolu dietylenowego (EtO(CH2)2O(CH2)2OH), często używaną zasadą jest natomiast imidazol.

W naczyniu miareczkowym znajduje się również mniejsza komora z katodą zanurzoną w roztworze anodowym z głównej komory. Obie komory są oddzielone od siebie jonoprzepuszczalną membraną.

Po przyłożeniu do platynowej anody odpowiedniego napięcia w obwodzie zaczyna płynąć prąd. Przepływ prądu powoduje generowanie jodu I2 Przedstawiona poniżej reakcja jest reakcją utlenienia SO2 przez I2. Jeden mol I2 przypada na jeden mol H2O. Mówiąc inaczej, 2 mole elektronów przypada na jeden mol wody.

B·I2 + B·SO2 + B + H2O → 2BH+I + BSO3

BSO3 + ROH → BH+ROSO3

Metodą powszechnie używaną do detekcji punktu końcowego jest metoda bipotencjometryczna. Druga para elektrod platynowych jest zanurzona w roztworze anodowym. W obwodzie detekcyjnym w trakcie miareczkowania pomiędzy elektrodami detekcyjnymi utrzymywany jest stały prąd. Przed punktem równoważnikowym roztwór zawiera I i bardzo małą ilość I2. W punkcie równoważnikowym pojawia się nadmiar I2 co powoduje nagły spadek napięcia. Ilość prądu potrzebną do wygenerowania I2 w celu osiągnięcia punktu końcowego można użyć do obliczenia zawartości wody w próbce.

Miareczkowanie wolumetryczne

W miareczkowaniu wolumetrycznym wykorzystywane są te same zasady jak w miareczkowaniu kulometrycznym, z tą jednak różnicą, że wymieniony powyżej roztwór anodowy staje się titrantem. Titrant zawiera alkohol (ROH), zasadę (B), SO2 i znane stężenie I2.

Jeden mol I2 jest zużywany na zmiareczkowanie jednego mola H2O. Reakcja chemiczna przebiegająca w trakcie miareczkowania jest dokładnie taka sama jak przedstawiona powyżej. Detekcja punktu końcowego odbywa się również za pomocą metody bipotencjometrycznej.

Zalety analizy

Popularność miareczkowania Karla Fischera wynika w znacznej mierze z jego przewagi nad innymi metodami oznaczania wilgoci. Do zalet tej metody należą:

  • Wysoka dokładność i precyzja
  • Selektywność w stosunku do wody
  • Wymagane niewielkie ilości próbki
  • Łatwe przygotowanie próbki
  • Krótki czas trwania analizy
  • Praktycznie nieograniczony zakres pomiarowy (od 1ppm do 100%)
  • Przydatność do badania:
    • Próbek stałych
    • Próbek ciekłych
    • Gazów
  • Brak wpływu ze strony innych substancji lotnych
  • Możliwość automatyzacji

W przeciwieństwie do tej metody, w metodzie oznaczania straty przy suszeniu na wynik oznaczenia wpływa również strata innych substancji lotnych.

źródło: kliknij

« Wcześniejsze wpisy