当前位置: 主页 > 05899.com >

最新素材精选人脸识别那些事儿_数据www.49028.com

发布日期:2019-11-15 09:08   来源:未知   阅读:

  人脸识别,算是时下最时髦的互联网应用了,但是对它的担忧也从来没有停止过。据澎湃新闻报道,针对AI进校园,生物识别技术在校园逐步开始应用的现象,9月5日,教育部科学技术司司长雷朝滋表示,“(对于人脸识别技术应用)我们要加以限制和管理。现在我们希望学校非常慎重地使用这些技术软件。”

  在进校园之前,AI其实已经深入普通人的生活,可以“刷脸”办的事越来越多了。移动支付、身份认证、宾馆入住、单位打卡,都已经用上了人脸识别技术。我们小区最近也赶了回时髦,两个大门都装上了人脸识别系统,人在摄像头下露个脸,大门自动就开了,确实挺方便。小区住户想进门得先登记录入照片,而外来者要进去只能找门口保安,这么一来,安全上无疑比以前随进随出多了一份保障。连小区这么终端的应用门槛也被打破了,可想而知,人脸识别的未来有多值得期待。

  可是,包括人脸识别技术在内的互联网服务在带来极大便利、提升了社会运营效率的同时,也带来了新的问题。一个显著的变化是,一个人在这样的数据面前几乎无所遁形,这在以前是完全不可想象的。一些以前认为不构成隐私侵害的,比如一个人在公共场合的活动,放在以前,www.49028.com。陌生人社会的大背景就是你藏身的舞台。可是现在就太不一样,大街上,摄像头忠实地记录着一切,手机定位可能暴露你的行踪,朋友圈里的照片可能无意间将你出卖。

  大多数情况下人们对这种每时每刻的记录无感,但特殊情况下就可能引来威胁,比如数据一旦泄露,有心人就可以拼接一个人的生活轨迹,你将毫无秘密可言。又比如,所有的个性化服务都是建立在对个人精确了解的基础上,有精准画像才有精准营销,没有个人信息的支撑,互联网个性化服务几乎寸步难行,这些被商业化的个人隐私又该怎么办?

  大学校园也是社会的一部分,人脸识别有的问题,在大学校园里同样也有。只不过,作为一个相对封闭的空间,大学校园更容易把问题放大而已。

  一个最棘手的问题是收集主体的多元化。不同的应用,不同的管理主体,有些属于公共部门,有些则属于私人部门,他们相互不兼容,相互也没有统一的标准可遵循。这样一种现状很难让人完全放心,存在泄露风险,运行比较规范的企业让人放心,还有更多的是规模比较小,管理水平比较低下的企业,把数据交给他们又如何让人放心?

  另一方面,情况也比较复杂,个人轨迹与互联网应用掺杂在一起,难以严格区分,这意味着有些收集行为是隐藏的。比如,打车是互联网应用,但是上车地点、行程终点又是个人隐私,这该怎么算?又比如,上网是享受互联网服务,门户网站提供了大量信息供你阅读,但你浏览了哪些网页是有隐私权成分的,你自然不希望门户网站把这些也公布出去。

  这种复杂性本身也给管理保护带来难题,哪些该保护哪些该合理利用,别说普通人,就连互联网企业自己也未必明白该怎么做。人脸识别技术的广泛应用,相当于在全社会编织了一张精确定位个人信息的网,无疑将隐私权的争议推至极致。

  由此可见,人脸识别虽好,但也是一朵带刺的玫瑰,不收拾一下直接上市,只怕会扎伤了人,法律需要给人脸识别也立个规矩。不泄露是底线,合理合法地应用才助于打消社会忧虑。

  近日,记者在一家网络商城中发现,有商家公开兜售“人脸数据”,数量约17万条。在商家发布的商品信息中可以看到,这些“人脸数据”涵盖2000人的肖像,每个人约有50到100张照片。每张照片搭配有一份数据文件,除了人脸位置的信息外,还有人脸的106处关键点,如眼睛、耳朵、鼻子、嘴、眉毛等的轮廓信息等。

  前几天,“AI换脸”APP闹得沸沸扬扬,惹得大家对数据隐私问题惶惶不安,担心软件借机收集人脸数据,造成个人隐私信息泄露,用于其他非法行为,造成不可预料的损失。如今,居然有商家公开售卖“人脸数据”,在未经许可授权的情况下,私自收集他人敏感隐私数据,并成为牟利工具,令人不寒而栗,眼见“潘多拉魔盒”被打开了。

  现在AI换脸、语音模拟等智能合成技术进步很大,操作难度也降低很多,甚至实现一键式合成,普通人都能轻松操作,效果非常好,很容易蒙混过关。由于这些“人脸数据”都是真实数据,面部清晰可辨,且包括了情绪、颜值、皮肤状况等细节,如果“人脸数据”被不法分子买去,利用AI软件的技术手段,合成面孔、声音等,冒充他人进行网络诈骗,势必会造成严重的后果。

  据商家称,其售卖的人脸样本中,一部分是从搜索引擎上抓取的,另一部分来自境外一家软件公司的数据库等。这批“人脸数据”数量高达17万条,涉及2000人的肖像数据,包括知名演艺界人士、医生、教师、未成年人等。其所销售“人脸数据”的行为已经触犯了相关法律,涉嫌非法收集他人敏感信息、非法售卖个人数据、侵犯肖像权、泄露未成年人信息等。相关商家除了及时将“人脸数据”下架,还应向司法部门举报违法线索,以追索数据泄露源头,打击违法买卖者。

  大数据就是互联网“石油”,这些真实可靠的个人敏感数据信息,有很大的挖掘利用潜力,具有广阔的市场空间,才会被不法商家看中违法收集、倒卖。而且,公开销售“人脸数据”恐怕并非独此一家,类似敏感数据通常是在暗网里销售,或者用其他名称代替,以逃避监管。可见,对违法销售“人脸数据”行为,应加强网络巡查、关键词过滤,及时封堵、查禁数据泄露源头,严厉打击违法行为。

  “人脸数据”被商家拿到网上销售,且有成功销售记录,说明有着强烈的市场需求。虽然目前利用“人脸数据”进行犯罪的行为还不多见,但是,随着人脸识别应用领域的扩大,“人脸数据”犯罪恐怕就会多起来。因此,监管部门应尽早对“人脸数据”的采集、保存、利用等进行规范,设置最小化原则,控制“人脸数据”的采集、利用底线,以防范网友“人脸数据”遭非法倒卖、利用,保障公众的隐私信息安全,保护网络空间的清朗。

  近日,有关人脸识别技术进校园的消息,在网络引发众多讨论。针对AI进校园,生物识别技术在校园逐步开始应用的现象,9月5日,教育部科学技术司司长雷朝滋在接受记者采访时表示,“(对于人脸识别技术应用)我们要加以限制和管理。现在我们希望学校非常慎重地使用这些技术软件。”他同时表示,“教育部已经在开始关注这个事情,组织专家论证研究”,“包含学生的个人信息都要非常谨慎,能不采集就不采。能少采集就少采集,尤其涉及到个人生物信息的。”

  此前媒体报道,位于江苏南京的中国药科大学的学生们就在入校时发现了一个大变化,不仅校门、图书馆等安装了新的人脸识别门禁,教室内也装上了人脸识别系统进行考勤,学生发呆、玩手机都能被感知到。

  消息一出,即引发极大争议。争议是正常的,连发呆、玩手机这种极其普通的行为,都要被赋予某种是非好坏的价值判断,但凡正常人,都不想生活在这样的环境。在这种铺天盖地的技术包裹之下,人该如何自处?

  一个新技术的引入,常会发生“想干什么”和“能干什么”之间的错位。据中国药科大学相关负责人表示,教学上最关键的是老师的教学质量,通过人脸识别可以看到学生是否玩手机,是否发呆,是否看别的书,并以此为根据评价教学质量。因此,这所大学引入人脸识别“想干什么”,主要是用来评估教学质量。

  但显然,这个技术能干的可不止这些。谁又能保证学校和老师不会为了提升教学质量,从而倒逼学生不许发呆呢?谁知道这个技术会不会成为震慑学生、磨练学生“演技”的工具呢?这项技术在“能干什么”上的巨大潜力,难保不会变形走样,变出一副怪相。

  更何况,这项技术“能干什么”又岂止在课堂上?这些学生的生物信息,会不会遭遇外泄?可不可能被用作校园以外的地方?学校有没有足够的隔离与防范能力?因此,一项技术哪怕有着看似美好的初衷,也可能会向某个方向延展出意料之外的后果,保持一定的技术审慎是绝对必要的。

  当技术触角深入个体的生活之中,必须划定严格的边界。类似人脸识别这种监控技术,使用时应当紧贴着底线需求,如公共场所的安全等。不可随意做增量,将其延展到个体状况判断、教学质量评估等具有一定主观裁量空间的领域之内。

  不可否认的是,当今技术发展确实迅猛,但也别技术迷恋,用技术思维去代入所有问题。就以大学教育为例,除了专业知识以外,它该承载的内容是信任、尊重、诚实等人文精神,还是“不听课就把你拍下来”这种机器指令式的惩戒规训?用镜头拴住学生,究竟课堂质量提高体现在哪?丰富一下课堂设计,提高一下考核难度,给教师课堂教学多一些评价权重,提升课堂质量恐怕也不至于就穷尽办法了。

  对技术不可误用,对教育不可误解。教育更需要的恐怕还是春风化雨的耐心与定力,而不是一两项高效“管”住学生的黑科技。

  9月2日起,一段人工智能监控学生在课堂上一举一动的技术展示视频,在网上引发了热议。这段视频显示,由旷视科技出品的人工智能产品,能够通过摄像头实时识别学生举手、玩手机、睡觉、听讲等具体行为。这种能够实现对学生“精准监控”的技术一经曝光,就激起了强烈的争议,而南京市某高校即将试水采用该公司人脸识别技术的消息,更是放大了相关争议。

  事发后,旷视科技对媒体澄清称:网传内容仅是概念性的技术展示,并未落地应用。涉事高校也表示:在推进智慧校园建设的过程中会坚持“以生为本”的理念,尊重和保护师生隐私权和数据安全。至此,这起事件似乎仅仅是“虚惊一场”,但这起事件引发的关于技术、隐私与伦理问题的讨论与思考,却不应就此止息,而有着进一步深入的价值。

  旷视科技的回应,无疑令关心此事的许多人都“松了一口气”。知道这样一项令人感到有些“可怕”的技术并未投入使用,确实是一件令人欣慰的事情。然而,尽管这项技术在目前仅仅是一种概念性的展示,但其昭示出的人工智能技术的发展方向,却依然令人难免感到些许不安。

  纯粹就技术论技术,人工智能与人脸识别技术能在短短几年时间里,从连最基本的“认人”都常常出错,发展到能够实现如此精密的行为识别,自然是一项了不起的科技成就。但是,我们却必须意识到:技术的进步,并非总是能够让这个世界变得更加美好,而是常常也会给人带来意想不到的负面困扰。

  在历史长河当中,技术进步就像是一柄双刃剑,可能带来光明与福祉,也可能带来黑暗与毁灭。炸药的发明让人类得以更加高效地建设工程,同时也让战争变得更加血腥与残酷;微生物方面的研究让人类克服了数不清的疾病,但也创造出了生化武器这个恐怖的噩梦;克隆技术的出现大大推进了生物学的发展,但与之相伴的克隆人争议却至今未能在全球范围内取得共识……这些例子说明:技术本身或许没有善恶,但对技术的具体应用,却有善也有恶,因此应当受到特定伦理规范的约束。

  其实,各种各样的监控与识别技术,自诞生以来就伴随着巨大的争议。在某种意义上,此类技术的本质,其实就是“以隐私换便利”。当我们默许各种各样的摄像头出现在我们的生活当中时,其实就是在出让自己的部分隐私,从而换取安全或是其他对我们更加重要的利益。但随着相关技术不断发展、迭代,这种“以隐私换便利”的交易,难免会遭遇“边际成本升高”“边际效益递减”的局面。

  每当这种监控与识别技术扩张到一个新领域的时候,人们都不免要问:这究竟需要被监控者付出多少隐私,又到底能为社会带来多少好处?如果一项技术需要被监控者付出的代价过多,而给社会带来的好处又相对有限,我们恐怕很难说这项技术的存在有多少正面意义可言。

  这次在网上掀起争议的“课堂监控”技术,正是将“以隐私换便利”的交易推向极端的一种表现,也正因如此,这项技术才激发了许多人的强烈反感。教室确实具有一定的公共场所属性,人们也普遍接受在教室内安装监控摄像头,确保教室内财物安全、防范学生作弊的做法。但这种将学生的每个动作、表情都作为分析对象的做法,却无疑大大突破了人们心中的“隐私底线”。这项技术倘若成真,固然可能给教学者带来一定的方便,但以如此激进的方式追求这点方便,从社会整体效益上看,显然是得不偿失的。

  从这个角度上看,旷视科技及时澄清这项技术并未真正投入使用,说明作为技术开发者,他们也意识到了这项技术存在一定的伦理隐患,这一点值得肯定。对此,社会也应有强烈的警惕意识,防止这类存在伦理隐患的技术在未来的其他地方投入现实应用,如此方能给相关领域的技术发展扎紧伦理规范的“篱笆”。返回搜狐,查看更多为什么来上海做生意?因为有“洪荒之力”让你被“温柔香港赛马会会员料2019年7月18-19日AUTOSAR功能及