原标题:以法律堵住人脸识别滥用的口子
应对人脸识别技术的大规模使用提出“必要性原则”“比例原则”“正当程序原则”,用制度的刚性来确保“科技向善”。
最近,人脸识别成了不折不扣的热议话题。
浙江理工大学特聘副教授郭兵一纸诉状,把杭州野生动物世界告上了法庭。原告认为,被告要求自己增加人脸识别技术的入园条件,收集个人面部特征等生物识别信息,侵犯了公民的个人信息,也违反了《消费者权益保护法》的规定。
人脸识别的滥用风险
不过,相比学者的较真儿,更多普通人把人脸识别作为一项高大上的技术来津津乐道。有了人脸识别,进安检不用凭票了,付账单不用扫码支付了,开汽车不要钥匙启动了,老师上课、单位打卡可以直接人脸识别签到……这也显示了人脸识别技术广阔的应用前景。
不可否认,人脸识别是我们这个时代最伟大的进步技术之一。它集成了人工智能、机器识别、机器学习、模型理论、专家系统、视频图像处理等多种专业技术,是生物特征识别的最新应用,更展现了弱人工智能向强人工智能的转化。它所依赖的,是每个个体的生物特征,比如虹膜。这是与指纹、掌纹、静脉一样的生物特征,也被称为“人体密码”。
与数字密码不同,生物特征是人无法改变的生理特征,在某种意义上,生物特征是最后的防线。这也意味着,人脸识别技术应用也存在相应的风险。比如,如果操作不当,或者被有心人采集、出售、应用,甚至被拿来冒名身份,这时不仅个体毫无安全可言,对整个世界秩序的后果也不堪设想。
这种担忧并不是杞人忧天。人脸识别的一个重要特征就是非强制性,即用户不需要专门配合人脸采集设备,几乎可以在无意识的状态下就可获取人脸图像,这样的取样方式没有任何强制性。
换句话说,在无意识或者稍不留神的时候,我们的人脸图像就被采集了。
更严重的是,随着深度学习推动人脸识别技术在分析、读取和比对环节功能的不断强大,通过对人脸面部表情的深度识别,摄像头还可以计算个体内心世界的真实情感,不仅能把你“看个清楚”,还能把你“想个明白”。
用制度刚性确保“科技向善”
目前,人脸识别技术在法律性质上,仍停留在身份信息识别的隐私权范畴。根据现行刑法规定,不经同意而非法获取,或者将合法取得的个人信息出售或提供给第三方,此类行为均涉嫌构成侵犯公民个人信息罪。而民法总则第一百一十一条规定,任何组织和个人需要获取他人个人信息的,应当依法取得并确保信息安全,不得非法收集、使用、加工、传输他人个人信息,不得非法买卖、提供或者公开他人个人信息。
从这个意义上来说,人脸识别的法律边界确实值得充分厘清。但是,我们在人脸信息获取这第一个环节就出了问题,也就是清华大学法学院劳东燕教授所说的收集的合法性问题。
面对越来越普及的智能人脸识别设备,我们对收集的主体、目的、方法、范围与程序等问题,完全没做任何限定,也没有对违规收集或使用的行为规定相应的法律责任。
退一步说,即便在某些人脸识别的场景得到了被收集人的允许,但由于收集的主体、收集的数据范围、使用目的及范围、保护措施与相应风险等信息告知不充分,被收集人依然处于弱势地位。
从学理上,可以认定上述的允许在法律上不能形成有效的同意,这样的收集行为仍是违法的。但当人脸识别应用成为大势所趋时,任何人都没办法对技术说“不”。
多年来,一直备受诟病的公民个人信息泄露就是直接例证。相比之下,生物学数据的个人指向性更为明确,对个人而言,也显然比一般的个人信息更为重要。因此,对于人脸识别的态度要更加谨慎。
今年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则》,提出对人工智能治理的框架和行动指南,呼吁发展“负责任的人工智能”,即技术的发展应该符合人类的价值观和伦理道德,避免误用,禁止滥用、恶用。
相应地,在法律的框架下,我们也应该对人脸识别技术的大规模使用提出“必要性原则”“比例原则”“正当程序原则”,甚至在某些特殊场景下考虑设立禁用“黑名单”制度,用制度的刚性来确保“科技向善”。