Zastosowanie tradycyjnych zasad ochrony danych osobowych może okazać się znacznie trudniejsze w przypadku skomplikowanych technologicznie, zautomatyzowanych zbiorów informacji.
Administratorzy powinni więc umieć zagwarantować, że efekty ich analizy nie prowadzą do wykluczenia określonych grup konsumentów ani nie naruszają prawa do prywatności. Dlatego też warto, aby przed wykorzystaniem Big Data na szeroką skalę przeprowadzali symulacje, które pozwolą ocenić potencjalne zagrożenia.
To jedna ze wskazówek, która znalazła się w wydanym właśnie przez Radę Europy zbiorze wytycznych dotyczących ochrony prywatności w kontekście przetwarzania i analizy wielkich zbiorów danych. Mają one podpowiedzieć administratorom, jak postępować z Big Data bez narażania się na zarzut dyskryminacji konsumentów, którzy mają niepożądany profil (poprzez np. wyższe opłaty za usługi).
Eksperci kładą szczególny nacisk na potrzebę uwzględniania zagrożeń dla prywatności już na etapie tworzenia rozwiązań technologicznych umożliwiających przetwarzanie Big Data, a także ograniczenie tego procesu do minimum (podobne zasady wprowadziło już zresztą unijne o ochronie danych, które wejdzie w życie w przyszłym roku). Co więcej decyzje w tej sprawie powinny podejmować osoby mające odpowiednie kwalifikacje, aby ocenić prawne, etyczne i społeczne konsekwencje data analytics.
Rada Europy podkreśla też, że nie można domniemywać niczyjej zgody na powtórne wykorzystanie prywatnych informacji. W każdym przypadku musi ona być jednoznaczna i wyraźna. Administrator danych powinien także zwrócić uwagę na to, aby anonimizacja danych była skuteczna. Należy bowiem całkowicie wykluczyć (za pomocą właściwych narzędzi technologicznych) możliwość identyfikacji osób, których one dotyczą.
Jak pisaliśmy miesiąc temu, ograniczenie swobody korzystania z Big Data rozważa obecnie Unia Europejska. Nie jest bowiem tajemnicą, że umożliwia to niektórym przedsiębiorstwom gorsze traktowanie konsumentów, którzy nie spełniają kryteriów „idealnego klienta”.