只接受发布货源信息,不可发布违法信息,一旦发现永久封号,欢迎向我们举报!
1064879863
16货源网 > 餐饮行业新闻资讯 > 软件开发 >  如何看待旷视科技新产品监视学生上课?


如何看待旷视科技新产品监视学生上课?

发布时间:2019-09-03 12:14:16  来源:网友自行发布(如侵权请联系本站立刻删除)  浏览:   【】【】【
这件事儿现在能吵大,实在是一件大好事。我现在发现:中国未来最大的矛盾,是理科生的进展太快,文科生跟不上做好配套的矛盾。我的观点:一种技术的出现,是中立的,是客观规律,不以人的意志为转移;关键之处在于:
如何看待旷视科技新产品监视学生上课?

这件事儿现在能吵大,实在是一件大好事。

我现在发现:中国未来最大的矛盾,是理科生的进展太快,文科生跟不上做好配套的矛盾。

我的观点:

  1. 一种技术的出现,是中立的,是客观规律,不以人的意志为转移;
  2. 关键之处在于:理科生把技术做出来,从社会人文的角度,更需要大家一起思考:当一项技术已经降临我们身边的时候,我们如何和新技术共处?如何能让新技术为我们产生最大的效能?

从电力科学、到核能、到基因科学,都引起过人们的恐慌。人类对每一项新技术,接受速度都有点慢。

理科生的科研速度,远远走在我们全体人民的前面。

前阵子刷到周玄毅的微博,他表示:

当你们还在纠结AI进校园的时候,真正该研究的,已经是脑后插管了。


当微博上大家都非常不爽镜头进学校的时候,AI早就已经盘旋在我们上空了——


上周我访问了深圳市龙岗区数据中心,这个数据中心,通过建立起从摄像头、智能路灯杆、无人机巡航、再到人工上门核实校正的立体体系,几乎已经覆盖了生活的方方面面。

指挥中心,背景是一块电影银幕,下面工作人员往来操作。

可以非常方便展示出城市内部的各项数据,很多都能做到实时更新,从温度、降雨、河流径流量、发电数据、出行数据、道路流动情况都面面俱到。(以下照片均为我自己拍摄)

系统对整个区域进行了建模,精度可以达到2cm。在每一栋楼宇,点击放大,都可以显示该楼宇的登记居民身份。

系统已经细致到了,我只要乐意,我可以切入到任何一家饭店,看看里面在做啥,你们可以看一下左侧的操作菜单,可以控制镜头转向,放大缩小抓拍特写——

当然这不会仅仅是一个录像系统,而是在AI帮助下,对整个城市动态进行把控。

比如,我经过监控区域,系统会立即把我的身高、步态、年龄、性别、服装颜色和我绑定。如果我闯红灯,系统会直接把我圈出来,调出相关资料。等交警叔叔抓住我,我根本无法抵赖。


甚至,在无人机定期巡航中,可以通过对比不同时段拍摄的画面,及时发现违建,自动推送给相关部门处理——

这套设备,由华为提供支持,费用昂贵。多地政府参观完这个数据中心,都已经开始研讨下订,很快,类似的系统就将覆盖到我们每一个人头上。

这套系统监控的细致程度,远远超过一个根本没投入使用,光做了个demo的课堂AI。

但是大部分人看到这套系统,不适感要远远小于微博上刷出来旷视AI的不适感。

这是华为这套系统做的最好的一点——选择了相对正确的应用场景,选择了人与技术共处的较优形式。


这里面展示的每一个细节,几乎都是在讲:这套系统,能如何利用数据及AI监控,让市民更有安全感。

比如:抓闯红灯,降低交通风险;抓违建,维护其他住客利益(拆迁的时候有没有加建骗补贴也一看便知,不刺激普通人);抓食品安全,让大家吃得放心。

我还看到另一个印象深刻的模块:边坡监控。

在每一个有滑坡风险的陡坡处建立监控体系,当降雨量达到一定毫米,AI自动分析判断哪些陡坡存在风险,通过摄像头调取陡坡下是否有行人车辆,一旦风险达到临界值,立即推送给负责人员,进行危险排除。

这些每一点应用,在你参观过后,都不太会有不寒而栗的被监控感,而更多会有一种安全感。

我估计这是华为在多年的市场化运营中,积累了丰富的经验,产品经理懂得如何抓住用户痛点,进行产品的功能展示。

在如此敏感的监控领域,龙岗智慧城市系统几乎没踩到黑点,这就是功力。


旷视AI这次展示,是很典型的“理科生做出了一个先进的技术,文科生和产品经理没有搞清楚,这个技术应该如何落地”。


这个技术,如果以学生和家长为用户核心,很明显,应该重点展示这些功能:

如何保证学生安全,减少校园霸凌的出现?

如何通过AI分析学生之间可能的肢体冲突,及时扼杀暴力伤害苗头?

如何分析校门等敏感地带来往人群,降低社会人士对校内的影响?


即使是网上最敏感的微表情分析,也可以对学生有益——

能否通过微表情分析,在压力较大的升学期,及时发现学生的情感波动,及时给予心理疏导?

是否可以通过不同教学方式下,学生给出的不同反馈,来甄别更吸引学生的教学方式?

能否通过大数据,判断学生整体的倦怠周期和兴奋周期,指导老师把重难点放在兴奋期讲解,提升教学质量?

这套大数据分析好了简直可以发不少paper。很明显这是教育信息化的必不可少的一环

这可以是一套非常好的,提高课程质量,而非监控学生的智能系统。


家长们看到学校里上了个这么个系统,会不会更想把孩子送进这种学校去?


你说旷视的理科生们不懂?翻了下他们最近刚发的声明,里面说了一些很适合用在宣传里的点,比如用来智能控制校门、教室门、宿舍门的出入;比如家长访客人脸识别白名单,确保只有授权的人能接近孩子。


结果Demo被人截出来,媒体把敏感的挑出来,分析孩子们举了几次手,睡了几觉....这玩意能不让大家喷么?

以及,就算光做幼儿安保,也是浪费了这套系统可能创造的价值啊。


当然,我能理解,AI的落地和优化,都在不断尝试之中。

我开篇讲到的智能城市系统,算是做的不错的了,在我看来,依然只发挥出功力的十分之一。

深圳龙岗的智能城市项目,付出了巨大的精力和金钱,甚至为了数据安全,专门在办公大楼负一层做出独立机房,设置私有云,储存收集到的大量数据。

但目前,这些数据,还没有统一进行系统深入的挖掘,还只是把权限分配给各职能部门,供各职能部门独立分析。

我在一家咨询公司工作,我是和我的上司一起去参观考察的。

参观之后,我上司问我:你看这里面有没有什么商机?我们是否可能在链条中创造某个价值?

我的回答是:以咨询公司独立第三方的身份,协助政府进行数据的深度挖掘,分析过后,为政务服务决策提供支撑。

顺便我们收点咨询费恰饭。

毕竟,花了这么多钱的一套系统,区里这么大一个指挥中心,你不可能让一个区长过来,指挥抓违建、抓小偷吧?


地下负一层里面的海量数据,都值得深挖研究。

建基在强大数据基础上的政务服务,将非常高效。

这就是我说的,技术取得了突飞猛进,配套的软件和机制还没有完全跟上。


再说校园AI系统,说了微表情分析可以用来判断学生的心理状况,及时提供心理疏导。

那判断的标准是什么?

疏导的方式是什么?

学校有配备具有职业资格的心理医生么?

关于系统的使用,老师可以分配多少权限?有没有关于权限使用的伦理指引?这套伦理指引你是不是也应该在网上公布出来,接受我们的监督?

如果这些软件都没有,岂不是又回到“老师看你在摄像头里不开心就怼你几句”的粗暴教育方式,这不正是大家最担心的么?


这就是我开头说的,这件事现在吵起来,是一件大好事。

至少我们在发出声音:技术以糟糕的方式使用,不如不用。

在产品还没有进入任何一个学校的概念期,先把问题暴露出来。

然后深入思考,驯服技术,把技术关进笼子里。

并为我所用。

the end


———

更新:

哎呀妈,看到评论区各种纠结“文科生理科生”,这是个比喻(我自己就是个文科生),说的是:科学伦理的发展,需要跟上科技发展本身。

核技术、基因技术、人工智能,都是如此。

这很难,不过依然值得我们付出努力。

两年前大家还在嘲笑欧美的限制科技公司发展的隐私法案,今天在中国已经引起了警惕和讨论,估计再过两年,就该跟进了。

更新一下,不管怎么说,引起警惕自然是好事情,你看10年前我们落后20年,现在我们可能只落后5-10年(专指这个方面),总体还是进步了。

这些技术为什么不用在幼儿园,为什么幼儿园虐童事件常有发生?

如果我对国内应试教育的认知没有落伍的话,这种监管对中学生是没用的。中高考指挥棒下考得好是可以为所欲为的。考核学生一节课举手多少次有意义吗?我举一百次你给我发清华入学通知?精细化监管的土壤是分工。工厂里的工人只负担生产流程的一环,故而无法通过最终产量来衡量员工的贡献,所以才会想方设法监管工人投入生产的时间。而学习-考试是独立作业,终末成绩足以提供 清晰的学习能力画像,除非以后高考改成团体赛,否则这个监管无必要,最终形同虚设。聪明的学校倒是可以用这些数据作一些关于课堂行为与最终成绩关联度的研究。

那如果这个技术被用来监管员工该如何看呢。大数据以及统计学本身就是一项管理技术,运用于生产活动中偏向管理层是无可避免的,这不是反人性。但管理本身也是生产的一环,做到三点,员工也能从更高的生产效率中受益。一是管理层分享更多的收益给其他员工,这是最重要的。二是管理层本身也置于监管之中,不涉及隐私的数据对全司公开,涉及隐私的数据没有特殊授权谁都不能看。三是管理层提供其所跟踪的指标与生产效率以及安全性之间的相关性论证,做不到的就有歧视嫌疑。督促管理层做到这三点的应该是工会的责任。

这种系统应该用在xx大会x,判断开会的时候这些人是否认真,让领导先用。

同时给支持这套系统的人,办公室也都装上,判断干活的时候他们有没有摸鱼。

---------------------------分割线-----------------------------

我知道知乎算法不允许我这种xx不正确的没图没大段文字的劣质答案在潜在热门问题第一位,所以我补充一点吧。

我认为这套系统非常恐怖。

就在学校应用而言,谁能保证你们上课从来没开过小差?或者说,回答问题不举手?

如果这套系统在学校全面应用,那每个孩子不是独立个体,而是机器。为了满足这套监控系统KPI的机器。

进一步,可能很多天赋就此被扼杀。比如,喜剧演员,举个例子,脱口秀演员卡姆,他在学校就是一个特别典型的调皮孩子,但在这套系统里,他应该是评分永远最低的那一档吧。

如何评价卡姆(com)?

而如果老板们发现潜力,在工作中应用呢?

换而言之,你上班的一举一动,也将成为监控下的评分标准。

王二,今日9:08到岗,19:26离岗,电脑亮屏时间共计9.3小时。全天看手机47次,总计时长108分钟;上厕所3次,总计时长40分钟;根据视频分析,电脑浏览非工作相关网站总计51次,总计时长2.2小时。全天工作时长不足8小时,建议谈话。

事实上,亚马逊已经开始了。

亚马逊内部文件显示,电商巨头利用算法去自动解雇未达到生产率指标的仓库工人。公司发言人称,由于无效率大约 300 名全职雇员的岗位被终止,而该运营中心有大约 2500 名雇员,解雇数量超过了员工总数的 10%。文件展现了亚马逊的一个自动化的跟踪和岗位终止流程。亚马逊的自动化系统跟踪了每一名员工的生产效率,无需上司意见就能自动发出与质量或生产率相关的警告或岗位终止。
如何评价亚马逊利用算法自动解雇无效率的仓库工人?

这套系统并不中立,反应的是制作这套系统的人的偏好

老师觉得应当让学生多参与教学活动。所以,读书、举手、听讲、阅读是好的KPI,趴桌子、玩手机、睡觉是坏的,所以要扣分。当然,这套评价标准还可以根据需求者定制,比如,坐姿标准程度、写字标准程度、举手速度等等,这些都是好事啊;也可以添加坏事,比如,是否传小纸条、下课特定男女生是否过多接触等等,防止你早恋嘛。

工作中也一样,只要老板想,实时分析你代码质量都可以。

所以……

而即使是完全中立的系统,也不见得是好事

比如刘慈欣的《镜子》就描述了终极场景:

这是一张三口之家的合影,但照片上的三人外貌和衣着几乎完全一样,仅能从头发的长短看出男女,从身材的高低看出年龄。他们都穿著样式完全一样的类似于中山装的衣服,整齐而呆板,扣子都是一直扣到领口。宋诚仔细看看,发现他们的容貌还是有差别的,之所以产生一样的感觉,是因为他们的那完全一致的表情,一种麻木的平静,一种呆滞的庄严。
“我发现的所有照片和残存的影像资料上的人都是这样的表情,没有见过其它表情,更没有哭或笑的”
宋诚惊恐地说:“怎么会这样呢?你能查查留下来的历史资料吗?”
“查过了,我们以后的历史大略是这样的:镜像时代在五年后就开始了,在前二十年,镜像模拟只应用于司法部门,但已经对社会产生了实质性的影响,人类社会的形态发生了重大变化。以后,镜像渗透到社会生活的各个角落,历史上称为镜像纪元。在新纪元的头五个世纪,人类社会还是在缓慢发展之中。完全停滞的迹象最初出现在镜像六世纪中叶,首先停滞的是文化,由于人性已经像一汪清水般纯洁,没有什么可描写和表现的,文学首先消失了,接着是整个人类艺术都停滞和消失。接下来,科学和技术也陷入了彻底的停滞。这种进步停滞的状态持续了三万年,这段漫长的岁月,史称‘光明的中世纪’。”
“以后呢?”
“以后就很简单了,地球资源耗尽,土地全部沙漠化,人类仍没有进行太空移民的技术能力,也没有能力开发新的资源,在五千年时间里,一切都慢慢结束了......就是我们现在显示的这个时候,各大陆仍有人在生活,不过也没什么看头了。”

这么好的东西当然让领导先用呀!

各级人民政府,党政机构,公检法等先行试用,确保我党代表最先进的生产力。切实合乎三个代表重要思想中:中国共产党要始终代表中国先进生产力的发展要求。

本来,过程化教育是好事。可以针对学生的状态调整教学,安排有针对性的补课或者加课,达到更好的效果。但问题是,现在学校考试太水了。过程化教学不做,学生也可以水过。这时候老师和学生都没有动力去发挥过程化教学的优势。只能用来点名。

所以核心问题是,学校毕业证水分太大。为了证明自己毕业证水分不打,学校想到的办法是加大考勤的比重,配合更加垃圾的考试水平。以摆脱自己学校教学能力差的责任。


其实那里用得着考勤呢?全国各地的考试中心来检验,所有知识点全考。一点都不漏。公开题库,上机考试(配合录像证明没有作弊),只要学生没毕业,随时可以考。

你的学生有本事一堂课不听,全部考过。那这个学生就是合格了。你管他考勤不考勤呢?

另外,学生学费跟着学生走。学生不上课,你学校就拿不到课时费。这样才能倒逼学校做好自己的本分,而不是整天想着考试怎么放水。

这么牛逼咋不拿到常委会去用呢?

利益相关:前旷视员工。

反对最高票回答所谓文科生水平跟不上理科生的谬论。这个本质上是中国社会对技术的纵容和对自身权益的不重视的结果。

这个产品其实很早就有了,同行友商也有很多家在做,我倾向于认为旷视做这个只是对标了某个竞品,用自身在其他领域(安防、智慧城市,至于这些领域干了什么任你想象)积累的能力在这个领域想捞一笔而已。

当然这不是洗白,我只是想说你看到这些的时候,可能在你看不见的地方,你已经受到更多的隐私和权利的侵害,只是你不知道。你看见了课堂AI,看见了ZAO,却不知道还有很多你看不见的地方,你已经成为了一个datapoint,在各家AI公司的数据库发光发热。李开复曾经在多个场合表示中国发展AI有数据优势和落地优势,这确实是大实话:中国数据真的太容易获得,落地监管也不是很严格,民众也不知道有多大风险也不会去考虑。

技术不是道德中立的。许多做技术的人喜欢用技术是道德中立这个观点来为自己洗清罪名,但是其实很多时候他们自己是很清楚现在做的技术是什么东西,会用来做什么。旷视的一些大佬曾经挂在嘴边说清华曾经想要他们做这个系统在课堂上用,他们认为这是作恶,所以拒绝了。现在他们就做了出来,卖给中小学,你相信做这个项目的人自己不知道自己在做恶吗?只是利益够大所以做而已,百分之百的利润他们可以伤天害理。

只要中国依旧认为隐私等基本人权是个可以让位与公共安全、社会整体利益的东西,那么这些应用就会继续发展,发展到我们不敢想象的地方去,那个时候个人可能就更是没有反击的能力了。

这不是产品经理或者程序员的问题,甚至不是一个技术问题,是我们社会的价值观的问题,我们怎么看待自身权益的问题。

—————补充的分割线—————

有些人喜欢拿原子弹说事,那我就得说两点:

  1. 当年那些科学家之所以开发原子弹,是为了尽快结束残酷的战争,彻底击垮灭绝人性的法西斯,而不是助纣为虐。
  2. 第一批反对核武器的人,就是那些研发核武器的科学家。当他们意识到自己的杰作会有怎样的后果,不少人就停下来了。今天这些AI从业者想的是什么呢。

某些高票答主千万不要甩屎盆子,说什么“中国未来最大的矛盾,是理科生的进展太快,文科生跟不上做好配套的矛盾”。

首先我认为不应该指责旷视,法无禁止即可为,旷视并没有违反法律,而且哪怕旷视因为道德原因拒绝做出这个产品,依然会有一堆其他的公司把这些产品做出来部署到教室里监控孩子们——你绝对不能用“科技公司的道德自律”来要求科技公司自我审查、自我反省,因为这种门槛越来越低,只要有市场需求,只要有中小学校长有钱来购买服务,就会有人做成产品。

同样是关于未成年、同样是关于隐私, Youtube Kids因为违反了美国《儿童在线隐私保护条例》而被罚款了6亿美金,原因就是Youtube后台也在用machine learning通过儿童隐私来推荐视频内容。

(http://stock.eastmoney.com/a/201909021225187253.html)

某些被割了韭菜的区块链大V,一如既往地带节奏,直接把屎盆子甩锅甩在“中国文科生”的身上?是因为北大法学院的毕业生们一个个不学无术、毕业后水平纷纷被耶鲁法学院、哈佛法学院吊打吗?

能不能问问自己,为什么中国没有保护儿童隐私的法律呢,是因为中国法律专业毕业生的专业水平太差?想一想到底是让Youtube被罚了6亿美金,又是什么保护了中国的互联网企业们免于这些惩罚、让这个领域的法律如此空白呢?

点到为止吧,多了我也不敢说了。

我觉得挺好,这种产品使用一段时间以后,老师和家长就会明白:

课堂表现和成绩并没有什么卵关系

刘慈欣写过一篇科幻小说《镜子》,讲的是软件工程师白冰通过量子计算机具备了无限清查任何人、任何行为的能力,结果对未来的人类社会产生了意想不到的影响。

未来的智慧城市系统也就是《镜子》的低配版吧。

当然了,以现在科学技术的发展速度,人类更应该担心的是“超人巨变”。

讨论“智慧城市”相当于在跳崖过程中思考“失业保险”的问题。

“失业保险”很重要,但在最终的结局面前已经没什么意义了,权当最后的狂欢吧。

以下涉及《镜子》的剧透:









“你以为自己已经站在历史的山巅上了,是吗?”首长无力地对宋诚说。
  “是正义站在历史的山巅了。”宋诚庄严地说。
  “不错,镜像把我们都毁了,但它的毁灭性远不止于此。”
  “是的,它将毁灭所有罪恶。”
  首长缓缓地点点头。
  “然后毁灭所有虽不是罪恶但肮脏和不道德的东西。”
  首长又点点头,说:“它最后毁灭的,是整个人类文明。”
  他这话使其它的人都微微一楞,宋诚说:“人类文明从来就没有面对过如此光明的前景,这场善恶大博斗将洗去她身上的一切灰尘。”
  “然后呢?”首长轻声问。
  “然后,伟大的镜像时代将到来,全人类将面对着一面镜子,每个人的一举一动都能在镜像中精确地查到,没有任何罪行可以隐藏,每一个有罪之人,都不可避免地面临最后审判,那是没有黑暗的时代,阳光将普照到每个角落,人类社会将变得水晶般纯洁。”
  “换句话说,那是一个死了的社会。”首长抬头直视着宋诚说。
  “能解释一下吗?”宋诚带着对失败者的嘲笑说。
  “设想一下,如果DNA从来不出错,永远精确地复制和遗传,现在地球上的生命世界会是什么样子?”
  在宋诚思考之际,白冰替他回答了:“那样的话现在的地球上根本没有生命,生命进化的基础——变异,正是由DNA的错误产生的。”
  首长对白冰点点头:“社会也是这样,它的进化和活力,是以种种偏离道德主线的冲动和欲望为基础的,清水无鱼,一个在道德上永不出错的社会,其实已经死了。”
  “你为自己的罪行进行的这种辩解是很可笑的。”宋诚轻蔑地说。
  “也不尽然。”白冰紧接着说,他的话让所有人都有些吃惊,他犹豫了几秒钟,好象下了决心说下去:“其实,我不愿意将镜像模拟软件公布于世,还有另一个原因,我……我也不太喜欢有镜像的世界。”

……


“这就是我们的城市,是一座空城,已死去两千多年了。”
  死城给人的第一印象是一个正方形的世界,所有的建筑都是标准的正立方体,且大小完全一样,这些建筑横竖都整齐地排列着,构成了一个标准的正方形城市。只有方格状的街道上不时扬起的黄色沙尘,才使人不至于将城市误认为是画在教科书上的抽象几何图形。
  白冰移动视点,进入了一幢正立方体建筑内部的一个房间,里面的一切已经被漫长岁月积累的沙尘埋没了,在窗边,积沙呈一个斜坡升上去,已接上了窗台。沙中有几个鼓包,像是被埋住的家电和家俱,从墙角伸出几根枯枝似的东西,那是已经大部锈蚀的金属衣帽架。白冰将图像的一部分拷贝下来,粘贴到处理软件中,去掉了上面厚厚的积沙,露出了锈蚀得只剩空架子的电视和冰箱,还有一张写字台样的桌子,桌上有一个已放倒的相框,白冰调整视点,使相框中的那张小照片充满了屏幕。
  这是一张三口之家的合影,但照片上的三人外貌和衣着几乎完全一样,仅能从头发的长短看出男女,从身材的高低看出年龄。他们都穿著样式完全一样的类似于中山装的衣服,整齐而呆板,扣子都是一直扣到领口。宋诚仔细看看,发现他们的容貌还是有差别的,之所以产生一样的感觉,是因为他们的那完全一致的表情,一种麻木的平静,一种呆滞的庄严。
  “我发现的所有照片和残存的影像资料上的人都是这样的表情,没有见过其它表情,更没有哭或笑的”
  宋诚惊恐地说:“怎么会这样呢?你能查查留下来的历史资料吗?”
  “查过了,我们以后的历史大略是这样的:镜像时代在五年后就开始了,在前二十年,镜像模拟只应用于司法部门,但已经对社会产生了实质性的影响,人类社会的形态发生了重大变化。以后,镜像渗透到社会生活的各个角落,历史上称为镜像纪元。在新纪元的头五个世纪,人类社会还是在缓慢发展之中。完全停滞的迹象最初出现在镜像六世纪中叶,首先停滞的是文化,由于人性已经像一汪清水般纯洁,没有什么可描写和表现的,文学首先消失了,接着是整个人类艺术都停滞和消失。接下来,科学和技术也陷入了彻底的停滞。这种进步停滞的状态持续了三万年,这段漫长的岁月,史称‘光明的中世纪’。”
  “以后呢?”
  “以后就很简单了,地球资源耗尽,土地全部沙漠化,人类仍没有进行太空移民的技术能力,也没有能力开发新的资源,在五千年时间里,一切都慢慢结束了......就是我们现在显示的这个时候,各大陆仍有人在生活,不过也没什么看头了。”
  “哦——”宋诚发出了像首长那样的长长的一声,过了很长时间,他才用发颤的声音问道:“那……我们该怎么办?我是说现在,销毁镜像吗?”
  白冰抽出两根烟,递给宋诚一根,将自己的点着后深深地吸了一口,将白色的烟雾吐在屏幕上那三个呆滞的人像上:“镜像我肯定要销毁,留到现在就是想让你看看这些。不过,现在我们干什么怎都无所谓了,有一点可以自我安慰:以后发生的一切与我们无关。”
  “还有别人生成了镜像?”
  “它的理论和技术都具备了,而根据超弦理论,创世参数的组合虽然数量巨大,但是有限的,不停试下去总能碰上那一组……三万多年后,直到文明的最后岁月,人们还在崇拜和感谢一个叫尼尔.克里斯托夫的人。”
  “他是谁。”
  “按历史记载:虔诚的基督教徒,物理学家,镜像模拟软件的创造者。”

这件事有没有伦理问题?

如果用机器观察学生上课表现并汇报给家长是不道德的,那么老师观察学生上课表现并汇报给家长是不是不道德的?

这里涉及到很多问题,比如未成年人的人权问题。一般认为未成年人和成年人的权利是不同的,未成年人有没有独立于监护人的隐私权?老师踮脚尖往教室里看算不算侵犯隐私?

还有机器和人的区别的问题,机器和人在这里的区别,主要是人的观察是片面的主观的,机器的观察是全面的客观的(在标准公开的前提下),哪个更不道德?

刘慈欣的小说《镜子》里描写了一个全知的观察器,由于每个人的所有行为都会被别人看到,导致所有人都不敢犯错,同时也扼杀了社会的活力和创造力。

这个说法是有一定道理的,但是也有程度的问题,把一切都暴露在阳光下可能是不好的,但是黑暗丛林肯定也是不好的,这是个平衡问题,平衡点在哪里需要探讨。

面对新技术要理性分析,一味地从感性出发搞滑坡谬误和错误类比是不可取的。

这个问题能拆分成若干小问题:

1.监视学生上课能否提升学习成绩?

绝对不能。大家都是有多年当学生经验了,谁都知道,假装认真读书,比认真读书容易多了;而分配精力到假装认真读书上,浪费的精力比走神多得多。越是通过技术手段监控学生学习过程,越影响学习结果。


2.这项技术有没有可能应用在更多领域?

不要问丧钟为谁而鸣,

——丧钟为你而鸣。

这本来就是项可以被广泛迁移到各种环境中的技术,而且按照目前的形势来看,迟早都会被迁移到更广泛领域里。

站着说话不腰疼,我私人希望这些鬼技术能率先应用在各级机关zz学习,rmdb会议之类的地方。但是现实点来看,怕且首先被安排上的,就是我们这种草根阶层了。

真是怀念当年随意艸塔马傻逼张广宁的日子啊!

正常,人本身不值钱的地方,隐私和尊严自然也是不值钱的。

我要为文科生说句公道话。说“中国未来最大的矛盾,是理科生的进展太快,文科生跟不上做好配套的矛盾”的,是不知道在中国做人文普及风险有多大么?尤其是社会学和政治学的。

往前走,到处都是禁区,都是红线,碰上就死。现代社会的很多基本准则,比如尊重隐私、群己权界、自由表达,在目前是处于一个很尴尬的位置上。

往后走,就是保守的方向走,安全啊。

在中国,你谈保守,要么就是四书五经、儒学护体、中医养生,那就是新儒家、传统文化啦;要么就民族主义民粹,那就扶(ai)清(zhao)灭洋了;要么就阶级斗争、闭关自守、自力更生,就是老路了。但是不管哪条路,都是不鼓励个性和保护私人空间的,“国家”以及作为国家一部分的“长官”、“老师”实际上是站在“大家长”的位置上,具有天然正确性和超然地位的,你就只能服从。

说到底,你就是个乘客,司机往哪开,你就别管了,只管坐就行。

我觉得这个技术应用还不够。

下一步至少应该同天网系统联网,全面把控所有的老百姓的情绪信号,对所有持有负面情绪的人都纳入失信人名单。

如果财政和技术条件允许,还应该建立完善的政审系统,对三代以内血亲有犯罪记录、累计有三次面部表情明显表露负面情绪的人,应该限制其就业、限制其日常与其他市民接触、限制其活动范围并禁止婚育。

或者只要国家有决心,就应该专门开辟一个地区作为收容区域,将这些人统一的管理起来,不使其干扰我们“中华民族的伟大复兴”事业。

头部精致的利己主义者,干这种事儿的时候更可怕。

如果旷视是男人的话,应该把这套系统先用在自己的员工身上,并研发一个“东厂”智慧大脑,把HR功能发挥到极限。也就是说,旷视员工的码字速度、喝水频率、表情专注度和刷知乎频率都要被记录并用来评绩效。

PS. 参与过一个小公司的针对课堂教育的智能监控项目,客户是南方某职业技术学校,

由于是小公司,数据要自己收集标注一些,学校给采集了几十个视频,

我震惊的发现:

  1. 下课时,一个女生坐在课桌上,男生站在女生面前,搂着女生说笑,偶尔还亲个嘴儿。关键是教室里还有很多其他人在,俩人旁若无人的亲密。(是我北方人太传统了吗。。。)
  2. 公司为了收集一些特殊行为的数据,让学生有组织的在教室里“表演”,学生们很配合,该走走,该坐坐,但是有个小胖子,突然对监控相机的镜头竖中指。(令我感到有一丝哲学的愧疚)

谢邀!

从删帖到监视,这是水到渠成的,多大点事,习惯就好了!

这与科技,市场本身没有任何关系,而和容忍它的社会有关系,和这个社会里的每一个人有关系。

就像一个人被强奸,他不敢反抗,就只能假装享受了。

完事了再把过错推到文科生理科生发展不平衡上。

责任编辑:
热门阅读排行
© 16货源网 1064879863