人工智能的应用,可能是影响深远的社会试验。应通过算法给智能机器嵌入人类的价值观和规范,让它们具有和人类一样的道德。郑州风之语智能科技
前不久,包括特斯拉**执行官马斯克在内的多位**人工智能*签署承诺书,呼吁不要开发“人工智能自主武器”。这已经不是业界次警告人工智能的潜在风险了。尽管当前处理单项任务、完成人类指令的“弱人工智能”自主性还很低,人们却不能因此忽视新技术应用的潜在隐患。
高效、聪明的人工智能并不**。比如,人工智能存在算法缺陷。这种缺陷往往源于机器学习过程的不可解释和不可理解,它的判断有时就像在一个黑箱中完成,缺少透明性。无人驾驶汽车决定向左或右转时,人们并不完全清楚它做出转向的过程。除了传感器故障,人们甚至无法准确找到问题原因,这就给有针对性地调整系统、判定责任带来了障碍。正因为如此,不久前生效的欧盟《通用数据保护条例》专门规定,人工智能公司必须让人来审查某些算法决策。
不仅有近忧,更有远虑。放眼未来,人工智能的应用正在模糊虚拟世界和物理世界的界限,可能重塑人类的生存环境和认知形态,并由此出一系列棘手的、法律和安全难题。与历史上其他技术创新相比,人工智能的法律等问题受到如此大的关注,一个重要原因在于它在理念上有望实现可计算的感知、认知和行为,从而在功能上模拟人的智能和行动,进而使得机器具有了一种准人格或拟主体的特性。人类现有的法律规范、概念框架及知识储备,能否应对人工智能发展引发的新问题,是人们不得不正视的挑战。
针对人工智能应用的潜在风险,国际社会在标准设计、道德等方面提出了一系列试图控制智能机器系统的方案,逐渐形成一个共识原则:通过算法给智能机器嵌入人类的价值观和规范,以此让它们具有和人类一样的同情心、责任心、羞耻感等道德。人们希望,人工智能的算法遵循“善法”,在完成人类难以完成的任务同时,吸取人类道德规范“善”的一面,从而达到控制机器风险的目的。毕竟,任何算法都只是实现目的的工具或手段,“善”的结果才是人类的追求目标。
实际上,通过编写代码和算法来控制机器的设想并不新鲜。70多年前,美国科幻作家阿西莫夫提出“机器人三定律”,构想了通过内置的“机器调节器”,设定机器人不得危害人类的原则。而今,计算机*、学家、社会学家、心理学家等正在共同努力,走在实践这一设想的路上。
人类对人工智能发展的远虑或许来得早了点,但未雨绸缪体现的正是人类的智慧和洞见,我们不能等到人工智能深度介入人类生活后才思考如何与之相处的问题。与机器相处的和谐度,应是人类开发利用人工智能的重要标尺。毕竟,人工智能的应用,不仅仅是一场科技创新,也可能是影响深远的社会试验。
“人工智能的短期影响由控制它的人决定,而长期影响则取决于人工智能是否完全为人所控制。”这是**物理学家霍金给人类留下的警示。我们不必被人工智能的风险所吓倒,但在享受人工智能福利的同时,也需要划好道德、法律规则等红线。
百应河南运营中心-郑州风之语智能科技诚邀更多全省眼光的伙伴,在的时代,抓住机遇,合作共赢。
语音机器人的价值
【高效过滤】高效客户资料整理,提高意向客户转化率,轻松完成量化指标
【精准的数据】通话数据精确到秒,对话关键词智能提取,大数据便签智能分类
【低成本管理】机器人上岗,**离职,降低人工成本、招聘成本、培训成本、硬件成本、流失成本
【标准化执行】情绪标准化、话术标准化、客户分类标准化,机器人永远标准化执行
【识别精准】采用深度学算法和卷积网络算法,抗噪性强,智能语音识别准确率高达90%,高出**10%左右
【响应迅速】可以达到400ms内,平均在800ms回复,较市面上的同类产品1300-2000ms回复速度快
【专业呼叫中心】专业的呼叫中心系统,先进的CRM客户管理,人机切换、预测式多并发、数据库对接
【接入灵活】无线、中继、IMS等线路都能专业处理快速接入。