我们进入202222,认为现在已经落后于我们的大流行最严重,这并不是不合理的。但而不是返回“正常”,我们可以预期我们在过去两年中看到的努力和生活的方式的许多变化,以加速和深化。
这是一个重要的机会。我们可以,应该做得更好。
一个近来和立即关注的领域,即靠近我的心,是多样性和包容性。预先发生,我们看到办事处如何欢迎母亲与幼儿提供幼儿的办公室,提供日托服务,而穆斯林在工作中提供祈祷区域,因此他们不必在某个地方寻求适合祈祷的地方。
今天,我们已经看到了大流行如何点燃行业的数字转型,包括医疗保健,这意味着这种新的技术景观,已经将老世界覆盖一边,也必须考虑到多样性和包容性需求。
特别是我们需要仔细看看健康数据 - 新的石油(如一些呼叫)支持许多扰乱医疗保健的新创新,并将其变得大幅增长。到2025年,将有一个预期的163个Zettabytes全球数据,其中30%的这一百分比将在医疗保健中。这是一个大数字:zettabyte相当于万亿千兆字节。
这就是为什么我们需要认真对待数据。一种2月2022年2月伦敦帝国学院纸张发现包括AI的数据驱动技术,同时证明诊断和治疗皮肤癌等疾病的潜力,如果偏见的算法,差的数据收集和R&D缺乏多样性,则可以恶化少数民族群体所经历的健康不等行解决。
根据该报告的报告,卫生系统和超越的战略层面,AI中的无意识和有意识偏见是由AI开发商的学术界缺乏多样性的推动。拥有不同的团队是关键。
在呼吁上英国妇女健康战略的证据时,英国政府看到未来的研究应该招募,审议历史上在研究和数据收集中遭到历史上代表的妇女群体,以便研究成果可能会使社会所有妇女受益。它的野心进一步拥有正确的数据,并更好地利用收集的数据,以解决基于性的数据差距,以改善女性的健康成果,减少差异和支持女性健康的生命课程方法。
今天的数据驱动产品和服务将变得更加复杂,无处不在,因为“第四个工业革命”继续安培。谈话正在增长Quantum Ai,并且已经在“MetaVerse”中的主要投资,作为新的互联网,这意味着我们现在必须开始和紧急。
新技术的任何投资或部署必须因素在设计阶段的开发方面或者包括在设计阶段 - 了解数据集如何为我们所有人工作。这些技术不仅用于成像和诊断等领域;它们越来越多地用于招聘过程中,使用AI动力工具用于查找和招募专业人士。
关键问题包括谁正在收集数据,如何收集数据,以及代表完整的全球图片的数据?然后谁分析和解释数据,以及如何应用?据哈佛大学的医疗保健计划的应用人工智能联合主任。陈公共卫生学院,算法偏差可以“蠕变”到任何地方的过程。
为了避免偏见,并确保数据被使用道德地,必须在每个阶段部署所有阶段(性别,种族,年龄,宗教等)所需的混合团队。
在医疗保健中,正如伦敦帝国学院纸作者所指出的那样,患者和公众必须涉及并在整个咨询,而全球卫生文件杂志也呼吁参与临床环境深入了解临床环境。
除此之外,AI还需要采用特定立法和法规,以最大限度地减少偏见,并确保受到保护的权利。要观察的法律框架包括欧洲委员会于2021年底揭开的AI法案草案,专注于AI系统和相关风险的具体利用,以及2022年的算法问责法。
今年国际妇女节作为其主题#BreakththeBias。随着我们暂停考虑我们如何更好地挑战陈规定型和歧视,让我们也思考数据挑战。重要的是要得到这个权利。