分类: AI

  • 多模态数据集提升药物不良事件检测:语料库创建与模型开发

    引言

    药物不良事件(Adverse Drug Events,ADEs)的挖掘在药物警戒中至关重要,通过识别与药物相关的潜在风险,提高患者安全性,促进不良事件的早期检测,并为监管决策提供指导。传统的ADE检测方法虽然可靠,但速度较慢,难以适应大规模操作,并且提供的信息有限。随着社交媒体内容、生物医学文献和电子病历(EMR)等数据源的迅猛增长,从这些非结构化文本中提取相关的ADE信息变得至关重要。

    相关工作

    文本数据与电子病历

    传统的ADE检测多基于文本数据,如电子病历和医学案例报告。这些数据源提供了患者病历记录、治疗情况、病情和潜在风险因素的全面信息。然而,这些方法往往忽视了视觉线索,导致上下文理解不足,影响了准确的解释。

    社交媒体数据集

    社交媒体因其实时性和多样化的用户生成内容,在ADE检测中也发挥了越来越重要的作用。通过分析社交媒体上的用户评论,可以识别潜在的ADE。然而,这些方法也存在局限性,因为它们仅依赖于文本数据。

    语料库开发

    为了弥补现有方法的不足,我们创建了一个多模态药物不良事件(MultiModal Adverse Drug Event,MMADE)检测数据集,将ADE相关的文本信息与视觉辅助信息相结合。具体包括以下步骤:

    数据收集

    我们从社交媒体、医疗博客和医学案例报告中收集数据,确保数据的多样性与代表性。例如,从Twitter收集了大量的推文,并筛选出与ADE相关的内容。

    数据注释

    为了确保数据注释的准确性,我们邀请了医学专业学生和博士生参与注释工作,并制定了详细的注释手册。通过多数投票确定最终的标签,以确保注释的一致性。

    数据分析

    我们对收集的样本进行了分析,确定了13种显著的ADE类型,并根据其来源将其分类,形成了一个多样化的ADE数据集。

    方法论

    我们利用大型语言模型(Large Language Models,LLMs)和视觉语言模型(Vision Language Models,VLMs),如InstructBLIP,对MMADE数据集进行训练,生成详细的医学图像描述。这些模型在视觉问答、图像字幕生成等任务中表现优异,通过集成复杂的联合表示学习机制,能够更好地捕捉文本和视觉模态之间的复杂关系。

    实验结果与分析

    通过一系列实验评估,我们发现多模态模型在捕捉视觉信息和生成文本描述方面表现优越。特别是经过领域特定数据微调后的InstructBLIP模型,在各种评估指标上均表现出色,显著提升了ADE检测的准确性。

    发现

    1. 多模态数据集显著提高了模型性能。
    2. 微调后的模型在捕捉上下文相似性和传达有意义的内容方面表现出色。
    3. 图像与文本的结合在ADE检测中发挥了关键作用。

    结论与未来工作

    本研究介绍了利用多模态数据集进行药物不良事件检测的任务,并创建了一个包含图像和文本描述的MMADE数据集。通过微调InstructBLIP模型,我们展示了领域特定微调对提升整体性能的重要性。未来工作可以扩展数据集,并探索其在ADE严重程度分类和摘要任务中的潜力。

    限制与伦理

    尽管我们开发了ADE检测框架并引入了新颖的MMADE数据集,但仍需注意数据集中可能存在的偏见,并确保隐私保护。我们的数据集仅用于研究目的,不授予商业使用许可。


    了解更多:

    1. Enhancing Adverse Drug Event Detection with Multimodal Dataset: Corpus Creation and Model Development
    2. Enhancing Adverse Drug Event Detection with Multimodal Dataset: Corpus Creation and Model Development
    3. Enhancing Adverse Drug Event Detection with Multimodal Dataset: Corpus Creation and Model Development

    Q: 这篇论文试图解决什么问题?

    A: 这篇论文试图解决的问题是如何有效地从多种数据源(如社交媒体内容、生物医学文献和电子医疗记录)中提取与药物不良反应(Adverse Drug Events, ADEs)相关的信息。具体来说,论文指出传统的ADE检测方法虽然可靠,但是速度慢、不易适应大规模操作,并且提供的信息有限。此外,以往的ADE挖掘研究主要集中在基于文本的方法上,忽视了视觉线索,这限制了对ADE情境的理解并妨碍了ADE的准确解释。

    为了解决这些问题,论文提出了以下几个关键点:

    1. 创建多模态ADE检测数据集(MMADE):该数据集结合了与ADE相关的文本信息和视觉辅助信息,以增强对ADE情境的全面理解。
    2. 开发一个框架:利用大型语言模型(LLMs)和视觉语言模型(VLMs)的能力,为展示ADE的医学图像生成详细的描述,帮助医疗专业人员在视觉上识别不良事件。
    3. 提高ADE检测的准确性和效率:通过整合视觉和文本数据,增强整体性能,这对于提高患者安全、ADE意识和医疗保健的可及性具有重要意义。
    4. 探索个性化医疗的新途径:通过多模态方法,为个性化医疗领域提供进一步探索的可能性。

    总的来说,论文的目标是通过融合文本和视觉信息来提高ADE检测的性能,从而为医疗专业人员提供更准确、更全面的工具,以便更好地进行诊断、治疗规划和患者护理。

    Q: 有哪些相关研究?

    A: 相关研究主要集中在以下几个方面:

    1. 基于生物医学文本和电子医疗记录的ADE检测:研究者开发了多种技术从电子医疗记录(EMRs)和医学案例报告(MCRs)中提取ADE信息。例如,Gurulingappa等人(2012a)使用机器学习方法从MEDLINE案例报告中识别和提取潜在的ADE关系。
    2. 基于社交媒体数据集的ADE检测:社交媒体成为获取实时信息的重要来源,有助于识别潜在的ADE。Leaman等人(2010)的研究表明用户评论在识别ADE方面的价值。
    3. 深度学习技术在ADE检测中的应用:随着深度学习技术的发展,研究者开始采用此类技术来预测ADE。例如,Tutubalina等人(2017)探索了条件随机场(CRF)和循环神经网络(RNN)的结合,展示了CRF增强了RNN模型捕捉上下文信息的能力。
    4. 多任务学习架构:Chowdhury等人(2018)开发了一个多任务架构,同时处理二元分类、ADR标记和指示标记,使用了PSB 2016社交媒体数据集。
    5. 特定领域的ADE检测:一些研究专注于特定类型的ADE,例如皮肤反应。例如,Zhou和Gao(2023)提出了SkinGPT4,这是一个针对皮肤病图像训练的领域特定模型。
    6. 多模态数据集的创建和使用:尽管目前没有公开的多模态(图像和文本)语料库适用于识别与药物相关的不良效果,但本文提出了一个新的多模态数据集MMADE,它包含ADR图像及其相应的文本描述。

    这些研究为本文提出的多模态ADE检测提供了理论和技术基础,同时也指出了现有方法的局限性,特别是在结合文本和视觉信息方面的不足。本文的研究旨在通过引入多模态数据集和模型来填补这一空白,并提高ADE检测的准确性和效率。

    Q: 论文如何解决这个问题?

    A: 论文通过以下几个步骤解决药物不良反应(ADE)检测的问题:

    1. 创建多模态数据集(MMADE):作者创建了一个包含1500个实例的多模态数据集,每个实例都包含患者报告的药物相关问题的文本描述和相应的图片。这个数据集旨在提供更全面的ADE信息,结合了视觉和文本信息。
    2. 利用大型语言模型(LLMs)和视觉语言模型(VLMs):作者提出了一个框架,利用LLMs和VLMs的能力来生成描述ADE的医学图像的详细文本,以帮助医疗专业人员在视觉上识别不良事件。
    3. 模型开发:作者使用了InstructBLIP模型,这是一个基于BLIP-2的预训练模型,具有高质量的视觉表示和强大的语言生成能力。通过精心的微调过程,使得模型能够适应ADE特定的任务。
    4. 微调过程:通过在特定领域数据上进行微调,模型的性能得到了显著提升。这表明领域特定的微调对于适应ADE检测的复杂性至关重要。
    5. 评估和分析:作者使用了一系列评估指标(如BLEU分数、ROUGE分数、BERTScore和MoverScore)来评估模型的性能,并进行了详细的分析。
    6. 风险分析:尽管多模态模型显示出潜力,但作者强调需要医疗专家和药物监管团队验证发现,并考虑其他关键因素。
    7. 未来工作:作者提出了未来研究的方向,包括扩展数据集和探索多模态数据集在ADE严重性分类和总结任务中的潜力。
    8. 伦理和广泛影响:作者讨论了用户隐私、偏见和数据集的预期用途等问题,并强调了研究的伦理方面。

    通过这些步骤,论文旨在提高ADE检测的准确性和效率,同时为医疗专业人员提供更全面的工具,以改善患者的安全和医疗结果。

    Q: 论文做了哪些实验?

    A: 论文中进行了以下实验:

    1. 模型微调:作者对InstructBLIP、BLIP和GIT等视觉语言模型(VLMs)进行了微调,以适应多模态ADE检测任务。微调的目的是让模型更好地理解和生成与ADE相关的文本。
    2. 性能评估:使用了BLEU分数、ROUGE分数、BERTScore和MoverScore等评价指标来评估不同模型在多模态和单模态数据集设置下的性能。
    3. 统计分析:通过配对t检验来比较多模态模型和单模态模型之间的性能差异,以确定使用视觉和文本数据的模型是否显著优于仅使用文本数据的模型。
    4. 定性分析:通过案例研究,分析了不同模型在多模态和单模态设置下生成的文本。案例研究包括了对不同身体部位(如皮肤、眼睛、口腔等)的ADE描述的分析。
    5. 风险分析:评估了模型的局限性,并讨论了需要医疗专家验证模型发现的重要性。
    6. 比较输出:展示了不同模型(包括BLIP、GIT和InstructBLIP)在实际ADE实例中的输出,并与真实文本进行了比较。

    这些实验旨在展示多模态数据集和微调后的模型在ADE检测任务中的有效性,并分析模型在不同情况下的表现。通过这些实验,作者能够证明结合图像和文本信息对于提高ADE检测性能的重要性。

    Q: 有什么可以进一步探索的点?

    A: 根据论文内容,以下是一些可以进一步探索的点:

    1. 数据集扩展:当前的MMADE数据集主要集中在与外部身体部位相关的ADE事件上,未来研究可以探索如何将数据集扩展到内部疾病,如肝脏感染、肾结石或心理健康问题等。
    2. 任务扩展:除了ADE检测,未来的研究可以探索使用多模态数据集进行ADE严重性分类、总结以及投诉识别等任务。
    3. 模型改进:尽管InstructBLIP在实验中表现出色,但总有改进空间。研究者可以探索不同的模型架构或训练技术,以进一步提高ADE检测的准确性和效率。
    4. 跨领域应用:研究如何将多模态ADE检测模型应用于其他医疗领域,例如疾病诊断、患者监护等。
    5. 用户研究:进行用户研究以评估医疗专业人员对多模态ADE检测工具的使用体验和接受度,以及如何将这些工具集成到临床工作流程中。
    6. 隐私和伦理问题:深入研究如何处理和保护在收集和使用多模态医疗数据时涉及的隐私和伦理问题。
    7. 模型解释性:提高模型的可解释性,以便医疗专业人员可以理解和信任模型的决策过程。
    8. 多语言支持:探索模型对不同语言的适应性和支持,以扩大其在全球范围内的应用潜力。
    9. 实时监测和反馈:研究如何将多模态ADE检测集成到实时监测系统中,并提供即时反馈给医疗专业人员和患者。
    10. 教育和培训:使用多模态ADE检测工具作为教育和培训材料,帮助医学生和医疗专业人员更好地理解和识别ADE。

    这些探索点可以帮助推动多模态ADE检测技术的发展,并最终提高患者安全和医疗保健质量。

    Q: 总结一下论文的主要内容

    A: 这篇论文的主要内容可以总结如下:

    1. 问题识别:论文指出药物不良反应(ADE)的检测在药物监管中至关重要,但传统方法存在局限性,如速度慢、不易扩展和信息有限。此外,以往的研究多集中于文本数据,忽略了视觉信息。
    2. 多模态数据集创建:作者提出了一个名为MultiModal Adverse Drug Event (MMADE)的新型多模态数据集,它结合了ADE相关的文本信息和图像,以增强对ADE情境的全面理解。
    3. 模型开发:论文介绍了一个框架,利用大型语言模型(LLMs)和视觉语言模型(VLMs)来生成描述ADE医学图像的详细文本,以辅助医疗专业人员进行视觉上的识别。
    4. 方法论:研究者使用了InstructBLIP模型,这是一个基于BLIP-2的预训练模型,通过微调来适应ADE特定的任务。
    5. 实验与评估:通过一系列实验,包括模型微调、性能评估和统计分析,论文展示了多模态方法在ADE检测中的有效性。使用了BLEU、ROUGE、BERTScore和MoverScore等评价指标来评估模型性能。
    6. 结果:实验结果表明,经过领域特定微调的InstructBLIP模型在多模态设置下表现优于其他模型,强调了结合图像和文本信息在ADE检测中的重要性。
    7. 风险与伦理考量:论文讨论了模型的局限性,并强调了需要医疗专家验证模型的发现,同时考虑了用户隐私、偏见和数据集的预期用途等伦理问题。
    8. 未来工作:作者提出了未来研究的方向,包括扩展数据集、探索多模态数据集在其他任务中的应用,以及提高模型的解释性和跨领域应用潜力。

    总体而言,这篇论文通过创建多模态数据集和开发相应的模型框架,为提高ADE检测的准确性和效率提供了新的视角和方法。

  • 探索 ReRoPE:一种崭新的位置编码方法

    在 Transformer 模型的演进过程中,位置编码一直是关键的一环。最近,笔者引入了一种新的位置编码方法——ReRoPE (Rectified Rotary Position Embeddings),通过这种方法,可以显著提升模型在长度外推上的性能。本文将详细介绍 ReRoPE 的背景、原理、实现和实验结果。

    背景与问题

    在 Transformer 模型中,RoPE(旋转位置编码)是一种绝对位置编码方法,但实际上它给 Attention 带来的是相对位置信息。这种编码方式在长度外推(Length Extrapolation)上效果较差,因为超出训练长度的位置编码并没有被训练过。

    研究人员提出了位置内插(Position Interpolation)来解决这个问题,通过调整相对位置矩阵,使得最大相对位置不超过训练长度。然而,这种方法虽然避免了外推,但使位置信息更加“拥挤”,仍需一定步数的微调。

    后来,NTK-aware Scaled RoPE 进一步改进,通过“高频外推、低频内插”平摊外推压力,效果有所提升,但仍存在上限。

    ReRoPE 的提出

    笔者提出了 ReRoPE(Rectified RoPE),通过设定一个窗口大小 ( w ),在窗口内使用常规位置间隔,在窗口外使用较大的间隔,从而精确保持局域性,且所有位置编码不超过训练长度。形式上,ReRoPE 与标准 RoPE 的关系类似于 ReLU 与 Linear 的关系。

    具体来说,矩阵 ( T ) 和 ( T’ ) 的定义如下:

    • 当 ( d = 1 ) 时,( T ) 简化为:
      [
      T =
      \begin{cases}
      \text{RoPE}(q, k) & \text{if } |q – k| < w \
      \text{Leaky RoPE}(q, k) & \text{otherwise}
      \end{cases}
      ]
    • 这样,无论输入长度如何,位置编码范围都不超过 ( w )。

    计算复杂度

    实现 ReRoPE 增加了一些计算复杂度,特别是在自回归解码时,需要为每步解码时给整个 Key 序列补上对应的 RoPE。这种改动会增加推理计算量,但对于 token-by-token 解码,仅需计算一次 Attention 矩阵。

    实验结果

    我们在 1 亿参数的 GAU 模型和 llama2-13b 模型上进行了实验,结果显示 ReRoPE 的效果显著优于 NTK-aware Scaled RoPE,甚至超过了 HFWA。

    在 GAU 模型上的实验结果

    测试长度RoPE-4kNTK-RoPE-16kReRoPE-w1024-16k
    4k1.49671.51631.4001
    8k8.86151.54171.4267

    在 llama2-13b 模型上的实验结果

    方法Loss
    RoPE-4k1.4967
    RoPE-8k8.8615
    NTK-RoPE-4k1.6081
    NTK-RoPE-8k1.5417
    ReRoPE-w1024-4k1.4996
    ReRoPE-w1024-8k1.4267
    ReRoPE-w1024-16k1.4001

    可以看到,ReRoPE 几乎不损伤训练效果,并且在更长的上下文中表现更好。

    实现与使用

    我们在 transformers 的 LLAMA 模型基础上实现了 ReRoPE 和 Leaky ReRoPE,读者可以在 GitHub 上查看详细代码。

    依赖

    • transformers 4.31.0

    测试方法

    python test.py  # 测试聊天功能
    python eval_loss.py  # 计算 llama2 模型的 loss

    总结

    ReRoPE 提供了一种新的位置编码方法,显著提升了长度外推能力。在实验中,ReRoPE 的表现超过了目前最优的 NTK-aware Scaled RoPE 和 HFWA,且在任意长度下都表现良好。希望本文的分享能为大家在模型优化上带来新的思路。

    如有兴趣,欢迎访问 GitHub 仓库获取代码并进行测试:GitHub – bojone/rerope

人生梦想 - 关注前沿的计算机技术 acejoy.com 🐾 步子哥の博客 🐾 背多分论坛 🐾 借一步网
Page Stats: PV: 1181 | UV: 735
Last updated: 2025-06-18 10:53:38
沪ICP备2024052574号-1