
有很多网站,为了防止被一些恶意程序(Bot)机器人来攻击,都会设置「我不是机器人」的验证机制。 ,这种机制的总称就叫做「CAPTCHA」,最常见是用一堆图片来要求你找出特定的图片,也有一些其它的机制,例如百度的「我不是机器人」也是其中一种。

不过,现在的Bot技术越来越进步,而人类的能力则一直停留在几年前。 现在这种反机器人验证机制上,机器人做的可能比人类更好。
根据一项参考了 200 多个流行网站安全系统的最新研究,机器人在通过机器人测试方面显然比人类更在行。 不过该研究尚未通过同行评审,目前只是发布在 arXiv 上。
由于恶意程序(Bot)可以伪装成合法用户进行危害网络环境的操作,例如抓取内容、建立账户以及发布虚假评论或评论以及消耗稀缺资源等方面,Bot对网络构成了重大威胁。
加州大学欧文分校的科学家在内的科学家们指出,「如果不受监管,机器人可以在大规模范围内执行这些恶意操作。」
自验证码诞生二十多年来,大多数网站都会将其作为安全检查策略进行部署,通过一些「应该对人类来说非常简单但对计算机来说非常难」的谜题来阻止潜在的有害机器人。
早期验证码要求用户从扭曲的图像中识别并复述文字,但随着计算机视觉和机器学习技术的进步,机器人只用了很短的时间就成功以近乎完美的精准度识别出其中的文字,而且更快更准。

随后,人类就开始与机器人在验证码领域展开了一场军备竞赛。 也正因此,验证码开始变得越来越麻烦和令人讨厌,甚至对人类和机器人来说都难以解决。
在这项研究中,科学家测试了200个最受用户欢迎的网站,发现其中120个仍然在使用传统验证码机制。
他们借助 1000 名来自不同背景(位置、年龄、性别和教育水平)的参与者的帮助,在这些网站上进行了 10 次验证码测试,以此评估其难度系数。
研究人员发现,许多科学期刊中描述的机器人都可以在速度和精准性方面胜过人类。
例如,一些验证码测试要人类参与者来识别的话可能需要9到15秒才能解决,精准度约为50%至84%,而机器人则可以在不到一秒钟的时间内破解,而且精准度近乎完美。
「机器人的精准性范围从 85-100%不等,大多数超过 96%。 这大大超过了我们观察到的人类精准性范围(50-85%),科学家在研究中写道。
他们还发现,在所有情况下,机器人解决问题花费的时间都明显更低或至少与人类几乎相同。