TOKENİZASYON
Siber güvenlikte Tokenizasyon, hassas verilerin anlamsız referans değerlerine dönüştürülmesi işlemiyken; doğal dil işlemede (NLP) metinlerin kelime, hece, rakam, karakter ya da sembol gibi küçük ve anlamlı parçalara yani token’lara bölünmesi işlemidir. Tokenizasyon özellikle ödeme işlemleri ve diğer hassas bilgileri işleyen kuruluşlar için veri güvenliğinin olmazsa olmaz bir adımıdır.
Tokenizasyon Nedir?
Doğal dil işleme ve yapay zekâ sistemlerinde Tokenizasyon, bütün hâlindeki bir veriyi makine mantığına uygun, sistemlerin anlayabileceği ve işleyebileceği küçük, standart parçalara dönüştürme sürecidir. Siber güvenlik sistemlerinde ise Tokenizasyon, hassas verilerin korunması için kullanılan temel bir adımdır. Örneğin ödeme sistemlerinde kredi kartı numarası (PAN) gibi hassas bilgiler, gerçek veri yerine anlamsız bir “token” ile değiştirilir. Bu yöntem veri güvenliğini artırır ve PCI DSS gibi güvenlik standartlarına uyumu kolaylaştırır. Oluşturulan token’lar birbirinden bağımsız olsalar da Format Korumalı Tokenizasyon (Format-Preserving Tokenization) yöntemi kullanıldığında, uzunluk ve biçim gibi orijinal verinin belirli yapısal unsurlarını koruyabilirler. Dolayısıyla tokenizasyon sayesinde iş operasyonları kesintisiz şekilde devam eder. Her token, güvenli bir Token Kasası'nda (Token Vault) orijinal değere eşlenerek korunur. Tokenizasyon sürecinde token’ların oluşturulması aşaması; verinin dönüştürülmesi, hassas verinin dahili sistemlerden izole edilmesi, token'ların (jeton yerine sektörel terim olan token) operasyonel şekilde kullanımı ve orijinal verinin güvenli harici depolama ortamlarında barındırılması adımları çerçevesinde gerçekleşir.