In Code We Trust (II) – A Tokenização

Em linhas gerais, podemos definir a tokenização como um processo que visa transformar ou substituir um ativo real (mesmo que digital) em um número gerado por algorítmos. Nesse caso, não só objetos podem ser tokenizados, mas cadeias de produção, gostos, relações e até pessoas. A tokenização é uma radicalização da mercantilização de tudo, atribuindo signos (tokens) mercantis próprios ao que se mercantiliza. A tokenização de tudo está apontando para o fim da era da informação, do compartilhamento, da internet e entrada na era do valor, onde cada serviço terá sua moeda/token próprio e tudo funcionará na base de micro-pagamentos e recompensas. Leia mais