DETECTER ET ATTENUER LES BOTS MALVEILLANTS

Mettez fin aux abus de logique commerciale sur vos applications web ou vos canaux API grâce à notre moteur d’atténuation des robots.

Pourquoi est-ce important ?

Notre approche

La capacité d’atténuation des bots est intégrée dans nos solutions – UBIKA WAAP Gateway, UBIKA WAAP Cloud, et UBIKA WAAP Container . Grâce aux renseignements sur les menaces provenant de la base de données actualisée en temps réel de Webroot, nous pouvons détecter les bots malveillants de type humain qui sont à l’origine de la plupart des attaques sur le Web. Nos défis d’atténuation des bots basés sur JavaScript bloquent les activités automatisées indésirables, tout en garantissant les bots légitimes.

Chaque défi a une date d’expiration de quelques secondes, de sorte que nous pouvons bloquer le robot si le défi n’est pas résolu dans le délai imparti. L’utilisateur doit gérer les redirections, les cookies et le JavaScript pour présenter une empreinte valide du navigateur. Vous disposez également de plusieurs options de réponse, comme la limitation du débit, le blocage, le captcha, etc.

Les puissants résultats de notre approche

Protection des applications web et API

en empêchant les bots sophistiqués et les attaques automatisées à grande échelle.

Une base de données de "bons robots" à jour

pour assurer l'expérience utilisateur des utilisateurs légitimes et des robots autorisés.

Empreintes comportementales, modèles de notation

permettant de distinguer les utilisateurs réels des attaques automatisées.

Limitation forte du trafic des robots

inconnus vers vos applications web ou API.

L'analyse de la réputation des IP

à l'aide des renseignements sur les menaces fournis par Webroot permet de bloquer le trafic de robots dangereux.

Tableau de bord user-friendly

offrant des informations permettant de gérer de manière proactive les menaces existantes et à venir.

Notre système d'atténuation des robots prend en charge les menaces automatisées de l’OWASP pour les applications Web

Ressources utiles

Comment éliminer le trafic provenant de robots malveillants sans affecter les utilisateurs légitimes de mes applications web ?