Categoria: Cultura Hacker

18 Maggio 2023 0

DarkBERT: Il modello di lingua addestrato sul dark web che rivoluziona la sicurezza online

Di Fausto Pitzalis

DarkBERT, un nuovo modello di lingua basato sull’architettura RoBERTa, è stato addestrato utilizzando dati provenienti dal dark web. I ricercatori hanno creato un database del dark web attraverso la rete Tor, applicando varie tecniche per filtrare e preparare i dati. DarkBERT è in grado di analizzare contenuti del dark web scritti in dialetti e messaggi codificati e estrarne informazioni utili. Rispetto ad altri modelli di lingua, DarkBERT ha dimostrato di offrire prestazioni superiori, aprendo la possibilità per esperti di sicurezza e forze dell’ordine di esplorare in profondità gli angoli più oscuri del web. Ulteriori addestramenti e miglioramenti potrebbero ancora ottimizzare i risultati di DarkBERT e il suo utilizzo futuro rimane da scoprire.