Consultant
Multi asiguratori vor intra curand intr-o cursa contra cronomentru pentru a-si documenta fluxurile de date, pentru a stabili cine este responsabil de aceste date, ce controale exista pentru asigurarea calitatii datelor si caile prin care aceasta este monitorizata.
Toate acestea sunt ingreunate de proliferarea programelor de lucru tabelar (spreadsheets) si de ajustarile manuale necesare - vezi caseta "Ce probleme ne pun foile de calcul tabelar".
Asa cum aminteam intr-un articol anterior, asiguratorii trebuie sa-si creeze propriul sistem de gestionare a calitatii datelor folosite in calculele Solvency II, iar un astfel de sistem trebuie sa indeplineasca un set de cerinte. In acest articol vom intra in detaliile referitoare la cerinta de colectare a datelor.
Ce presupune cerinta de colectare a datelor?
Colectarea datelor cerute de calculele formulei standard si a modelului intern trebuie facuta intr-un mod structurat, datele implicate trebuie definite, iar calitatea datelor trebuie evaluata continuu pe baza unor indicatori specifici.
Asa cum aminteam, primul pas este stabilirea necesarului de date pentru formula standard sau pentru modelul intern, implicand in proces departamentele de actuariat si pe cel financiar.Toate sistemele si elementele de date trebuie sa aiba titulari desemnati, care sa fie responsabili pentru definirea si asigurarea integritatii datelor respective.
Aceste date vor fi introduse intr-un Director de date, adica un inventar al tuturor datelor folosite in lantul Solvency II, impreuna cu caracteristicile acestora, procesele care le folosesc si controalele aplicate acestor date. Directorul de date poate contine criterii de calitate, praguri si teste de verificare, poate contine si titularul datelor, sistemul din care provin si alte informatii. Un exemplu de director de date este ilustrat in tabelul 1.
Pentru a putea concentra eforturile de asigurare a calitatii acolo unde este necesar, datele trebuie prioritizate ca importanta in functie de materialitatea impactului in zona de modelare actuariala, spre exemplu cum va afecta absenta sau calitatea scazuta a unor date rezultatul calculului.
Colectarea structurata a datelor se recomanda a fi facuta prin mecanisme standardizate de tip ETL (Extract, Transform and Load - extractie, transformare si incarcare). Acesta este primul pas in activitatile asociate unui Data Warehouse (DW) si consista in extragerea datelor din diferite surse, interne si externe, transformarea sau conversia acestor date in formatul dorit si incarcarea lor in sistemul destinatie (de regula un DW, dar poate fi si o aplicatie specializata destinata modelarii, calculelor si a raportarilor necesare pentru Solvency II).
Un proces corect de colectare a datelor este unul transparent, in care sursa datelor este trasabila (auditabila) de catre autoritatea de supraveghere. De asemenea, interfetele dintre sisteme si aplicatii si transformarile suferite de date trebuie sa fie auditabile, deci documentate.
Corectia datelor se face prin intermediul procesului de "gestionare a deficientei datelor" atunci cand calitatea lor nu corespunde criteriilor (standardelor) de calitate stabilite.
Validarea datelor utilizate in modelul de calcul presupune mai multi pasi:
- Folosirea opiniei expertilor acolo unde datele colectate nu sunt suficiente pentru evaluarea riscului.
- Validarea calitatii datelor aplicand criteriile de calitate stabilite.
- Stocarea si pastrarea unei cantitati de date pentru o perioada suficienta de timp (date istorice).
- Reconcilierea datelor cu alte rapoarte folosite pentru alte scopuri.
- Compararea datelor interne cu date furnizate de terti.
Poate fi contactat la mihnea.mironescu@gmail.com.