取消
搜索历史
热搜词
原创
活动
创新2.0
I T
产业
当前位置:首页 >人工智能 > 正文
张大方:警惕人工智能发展所带来的社会公平问题
来源:金台资讯  作者:佚名 2020-12-25 14:20:22
人工智能主要以大数据和深度学习为基础,从理论上来说,客观的数据和理性的算法没有情绪也没有偏好,不会带来偏见。但是,往往数据的缺失、...

人工智能主要以大数据和深度学习为基础,从理论上来说,客观的数据和理性的算法没有情绪也没有偏好,不会带来偏见。但是,往往数据的缺失、数据的质量、算法的歧视和人工的变化,会导致一些偏见出现。也许,人类真正优越于人工智能的,不是更强大的逻辑运算能力或创造力,而是崇高的道德感和同情心。

面对人工智能发展所带来的潜在与现实的社会公平问题,我个人的思考与建议是:

一、“上限”不能过。人工智能发展应该公平地服务于人类的公共利益,而不应该侵害甚至颠覆人类社会的公平与正义。人工智能应该被合乎伦理的设计开发与利用,一切有悖于科学伦理、加剧社会不平等、拉大贫富差距的技术研发,应该受到限制。

二、“底线”不能破。应致力于帮助每个人做好应对的准备,包括帮助学生应对未来的职业挑战,帮助劳动者应对不断变化的行业形势,以及建立相关制度以帮助劳动者和就业机会进行匹配。应大力推广计算思维普及教育,让每一个人都能成为人工智能的理解者与受益者;大力推动各行业数字化转型,让每一家公司都能成为人工智能的使用者与创造者。

三、“红线”不能踩。必须加强政府引导、行业自律、企业自觉及公民共识的氛围营造,从设计研发之始,就要在技术标准化上加以规范,下大力气培养一线从业人员遵从科学道德伦理,自觉规避好奇与邪恶,并从中获得职业释怀的幸福感,从而使人工智能在政策、法律和规范的指导下更具效能。

免责声明:本文系网络转载,版权归原作者所有。本文所用图片、文字如涉及作品版权问题,请联系删除!本文内容为原作者观点,并不代表本网站观点。
编辑:宋含怡
活动 直播间  | CIO智行社

分享到微信 ×

打开微信,点击底部的“发现”,
使用“扫一扫”即可将网页分享至朋友圈。

Baidu
map