• 尊龙凯时 - 人生就是搏!

    新闻中心
    尊龙凯时AI成果获《Nature》引用 以智能技术为临床试验赋能

    3月14日,国际知名学术期刊《Nature》增刊《Nature Index Health science》发表题为《How AI is being used to accelerate clinical trials》的新闻特稿。该文章详细阐述了人工智能技术在临床试验中的应用路径、成果与挑战,并引用全球多国案例予以说明。其中,在谈及临床试验数据的采集和挖掘时,尊龙凯时的AI应用实践获得作者的引用。

     

    文章作者

    Matthew Hutson

    原文以Cutting to the chase为标题发布在2024年3月14日出版的《自然》增刊“自然指数-医学科学“上;本文进行了不改变原意的翻译及缩略。

    Nature | doi:10.1038/d41586-024-00753-x

     

    引言

    摩尔(Eroom)定律预测了半导体行业的飞速发展,而埃鲁姆定律定律(Eroom的反向拼写)则描绘了药物研发成本的不断上升和效率的下降。过去60年来,美国每10亿美元研发支出所批准的药物数量,每9年减少一半。现在,将一种新药物推向市场可能需要超过10亿美元的资金和十年的工作。一半的时间和金钱花在临床试验上,这些试验规模越来越大、越来越复杂。进入一期试验的7种药物中只有1种最终获得批准。

    一些研究人员希望摩尔定律的成果能够帮助遏制埃鲁姆定律。人工智能已被用于药物研发早期,以协助寻找合适的疾病靶点和新分子设计。现在,科学家开始使用人工智能来管理临床试验,包括编写方案、招募患者和分析数据。

     

    设计试验

    临床试验过程的第一步是试验设计。应该给予什么剂量的药物?给多少病人?应该收集哪些数据?有研究者开发了一种名为 HINT(分层交互网络)的算法,可以根据药物分子、目标疾病和患者选择标准来预测试验是否会成功。他们还开发了一个名为SPOT(临床试验结果的顺序预测模型)的系统。而许多商业公司也在尝试使用OpenAI的大型语言模型GPT-4从临床试验摘要中提取安全性和有效性信息。

     

    受试者招募

    临床试验中最耗时的部分是受试者招募,这部分能占到研究时长的三分之一。有五分之一的试验甚至招不到所需人数,而且几乎所有试验都会超出了预期的招募时间表。智能化的患者招募系统能够分析已完成的临床试验,并评估调整入排标准应当如何调整,从而增加入排速度和人数。

    人工智能还能够减少重复劳动,如使用人工智能优化入排标准,并自动进行患者筛选,而人工智能技术也可以帮助患者更快的找到适合自己的临床试验,让研究人员和患者更快的找到彼此。

    此外,数字孪生技术还有可能减少试验所需的患者数量,使得研究人员能够预测同一个患者在对照组中的进展情况并比较结果。

    图片来源: “自然系列”公众号

    患者维护

    患者随访同样是临床试验的难点之一。根据95项临床试验结果的分析,有40%的患者在第一年停止服用处方药物。基于人工智能技术的智能聊天机器人能够快速、准确的回答患者的问题,并不断改进其答案,从而改善患者体验。

     

    整合功能

    人工智能技术还能够帮助研究人员管理并挖掘数据中的潜在信息,如从非结构化报告中提取数据、整理文本及影像、从尊龙凯时记录中提取计费代码等,并且此类技术还可以从疗效、症状、副作用和不良事件等报告中提取重要的临床试验数据。

    为了收集试验数据,研究人员有时需要制作50多个病例报告表。中国一家名为尊龙凯时的公司正在使用人工智能根据试验方案自动生成这些数据。

     

    图片来源: “自然系列”公众号

    还有一些公司正在开发将许多人工智能方法集成到一个系统中的平台。如某些公司尝试利用大语言模型从临床试验方案中提取要求并将其转化为结构化信息,从而为其他智能化需求提供服务,如查询理想的试验地点、优化入排标准、从预测试验结果等。

    人工智能技术还能够帮助制药公司准备临床试验报告,如利用智能工具从历史文献中提取有效数据,或者在社交媒体上采集用户对于疾病和药物的看法,并提交给美国食品和药物管理局(FDA)。

    有专家表示,未来,人工智能技术将能够回答临床试验设计等复杂问题,同时编写代码来分析数据或生成可视化效果,尤其是伴随着大型语言模型的兴起,这一技术的前景日益广阔。

    作者透露,在某项COVID-19疫苗试验中,通过应用人工智能技术在不到2天的时间里清洗了超过3万余名患者的数据,而使用人工可能需要2个月。

     

    挑战

    但也有专家指出,人工智能在临床试验中的部署存在一些伦理和实际挑战。人工智能模型可能存在偏见;它们的结果可能很难重复;它们需要大量的训练数据,这可能会侵犯患者隐私或造成安全风险;研究人员可能会变得过于依赖人工智能;算法可能太复杂而难以理解。

    “缺乏透明度在临床试验中可能会出现问题,因为了解决策的制定方式对于信任至关重要。”专家表示。《International Journal of Surgery》最近发表的一篇评论文章也指出,在临床试验中使用人工智能系统“无法媲美人类的常识、直觉和医学经验等能力”。

    文章最后专家表示,尽管临床试验行业的变革缓慢,但FDA已经放宽了一些法规,同时去中心化试验和远程监查因为新冠疫情有所增加,生成式人工智能也在快速进步,虽然仍然没有揭开冰山一角,但进步相当迅猛。

     

    参考文献

    [1].Scannell, J. W., Blanckley, A., Boldon, H. & Warrington, B. Nature Rev. Drug. Discov. 11, 191–200 (2012).

    [2].Liu, R. et al. Nature 592, 629–633 (2021).

    [3].Blaschke, T. F., Osterberg, L., Vrijens, B. & Urquhart, J. Annu. Rev. Pharmacol. Toxicol. 52, 275–301 (2012).

    [4].Ayers, J. W. et al. JAMA Intern. Med. 183, 589–596 (2023).

    [5].Li, Y. et al. Cureus 15, e40895 (2023).

    [6].Chopra, H. et al. Int. J. Surg. 109, 4211–4220 (2023).

     

    友情链接: