BERT (Bidirectional Encoder Representations from Transformers) is een AI-model van Google dat helpt om zoekopdrachten beter te begrijpen — vooral de context van woorden in zinnen. In plaats van losse termen te analyseren, kijkt BERT naar de hele zin, van links én rechts, om de bedoeling (oftewel: zoekintentie) nauwkeuriger te bepalen. Het speelt een grote rol bij natuurlijke taalverwerking en versterkt de werking van updates zoals de Helpful Content Update.