人工智能助力疫情防控面临的现实难题

slime2022-05-06 00:07

在疫情防控过程中,人工智能的多方面应用均发挥了巨大作用,但目前尚面临着一些现实难题。

人工智能助力疫情防控面临的现实难题

人工智能应用中的伦理和法规问题

完善详尽的法律法规是人工智能落地的根本保障,医疗人工智能的可行性需要解决大量的社会伦理和法律问题。

现阶段,与人工智能技术发展相比法律的滞后性十分明显,引进医疗人工智能后,各类责任划分、应用标准等是亟待解决的重要问题。

其次,医疗领域的医患关系本就是一个复杂的问题,引入医疗人工智能意味着增加了新的关系主体,给医患关系带来了更多挑战。

此外,人们对于人工智能的理解仍停留在表面,尚难以寄予充分的信任。

随着科技的发展,当医疗人工智能可以独立地诊疗患者时,人们的信任问题、对医生这一行业的影响等社会伦理问题将是影响医疗人工智能应用落地的重要因素。

人工智能应用中的数据问题

实现人工智能的广泛切实应用,特别是在临床医学辅助方面,需要广泛且准确的数据输入进行建模和分析。

由于数据问题,医疗人工智能系统仅能发挥其部分效用,应用范围也局限于医院内部,而无法实现全国范围的联通。

首先,医疗数据信息无法实现共享。目前对于人工智能医疗数据的研究仅局限于部分医院,数据输入相对单一,建立的模型普适性不足,同时尚未建立统一的数据共享方式。

其次,医疗数据信息无法达到高质量水平。不同医院的数据格式、信息描述均存在差异,这在输入数据时需要许多经验丰富的医生书写统一标准的病历数据,增添了大量的额外工作。

最后,存在个人信息的隐私保护问题。在实现医疗人工智能的过程中,科技公司、医院等主体需共享医疗信息资源,这就存在隐私泄露的风险。

因而,完善法律法规、保障公民的信息安全,是医疗人工智能落地的重要问题。

人工智能的算法偏见问题

算法偏见是指人工智能系统中产生的不公平结果和可重复的错误,这种偏见不仅是算法本身的设计问题,还受到输入数据、算法训练方式等多种因素的影响。

首先,若原始输入数据存在偏见,即数据范围不够广泛,某类型数据过多则会导致算法将这种偏见带入到运行过程中,进而使结果带有偏见。

其次则是人为造成的算法偏见。因为算法由程序员编写,而当设计者将自身价值观所带的偏见嵌入到算法中,人工智能则会继承这种思想,经过多重的算法运作,这种偏见将会被进一步放大或固化,进而使得人工智能产品带有“偏见”,给市场带来负面影响。

以上就是小编为大家整理的“人工智能助力疫情防控面临的现实难题”一文,更多相关信息尽在开课吧广场人工智能资讯频道。

免责声明:本站所提供的内容均来源于网友提供或网络搜集,由本站编辑整理,仅供个人研究、交流学习使用。如涉及版权问题,请联系本站管理员予以更改或删除。
有用
分享
全部评论快来秀出你的观点
登录 后可发表观点…
发表
暂无评论,快来抢沙发!
AI项目实战精讲