SECURITY

安全说明

我们重视用户数据安全与隐私保护,并持续优化安全体系。

最后更新:2026 年 3 月

数据加密

MindLM 对所有数据传输和存储采用行业领先的加密标准,确保用户信息在任何环节都得到保护。

在传输层面,所有客户端与服务器之间的通信均通过 TLS 1.3 协议加密,防止中间人攻击和数据窃听。在存储层面,用户数据使用 AES-256 加密算法进行静态加密,即使在极端情况下,未经授权的访问也无法读取原始数据。

  • TLS 1.3 加密所有网络传输
  • AES-256 对静态数据加密
  • 数据库连接使用加密通道
  • 密钥由专用密钥管理服务托管,定期轮换

访问控制

我们实施严格的访问控制策略,确保只有经过授权的人员和系统才能访问用户数据。

MindLM 采用基于角色的访问控制(RBAC)模型,遵循最小权限原则。所有内部系统访问都需要多因素认证(MFA),并记录完整的审计日志。

  • 基于角色的访问控制(RBAC),按职责分配最小必要权限
  • 强制多因素认证(MFA),防止凭证泄露导致的未授权访问
  • 数据库层面实施行级安全策略(RLS),用户只能访问自己的数据
  • 所有管理操作记录审计日志,支持事后追溯

基础设施安全

MindLM 构建在业界领先的云基础设施之上,充分利用平台级安全能力。

应用部署在 Vercel 全球边缘网络,享有其企业级 DDoS 防护和 WAF(Web 应用防火墙)。数据库服务由 Supabase 提供,运行在 AWS 基础设施上,具备自动备份、点恢复和网络隔离能力。

  • Vercel 边缘网络提供全球加速与 DDoS 防护
  • Supabase 数据库具备自动备份与灾难恢复能力
  • 生产环境与开发环境严格隔离
  • 定期进行依赖项安全扫描和系统更新

AI 数据处理

我们深知用户对 AI 处理其内容的关切,因此在数据处理方面采取了严格的隐私保护措施。

当您使用 MindLM 生成思维导图时,您的内容会被发送至 AI 模型进行实时处理。处理完成后,输入内容不会被保留用于模型训练或其他目的。我们不会将您的内容用于改进第三方 AI 模型。

用户主动保存的思维导图和相关数据仅存储在您的账户中,由您完全控制。

  • AI 处理为实时、短暂性操作,处理后不保留原始输入
  • 用户内容不用于任何模型训练
  • 生成结果的所有权归用户所有
  • 您可以随时删除账户中保存的所有数据

合规与标准

MindLM 在设计和运营中遵循国际隐私保护法规的核心原则。

我们的数据处理实践与 GDPR(通用数据保护条例)的基本要求保持一致,包括数据最小化、目的限制、存储限制和数据主体权利保障。我们仅收集提供服务所必需的最少量数据,不进行不必要的数据聚合或画像分析。

  • 遵循数据最小化原则,仅收集必要数据
  • 明确的数据处理目的和法律依据
  • 保障用户的访问、更正、删除等数据权利
  • 透明的隐私政策,清晰说明数据收集和使用方式

安全事件响应

尽管我们采取了全面的安全措施,但也为可能的安全事件建立了完善的应急响应机制。

MindLM 设有专门的安全响应流程,涵盖事件检测、评估、遏制、修复和通知各环节。若发生涉及用户数据的安全事件,我们承诺在确认后 24 小时内通知受影响的用户,并提供清晰的事件说明和建议措施。

  • 7×24 小时安全监控与异常检测
  • 确认安全事件后 24 小时内通知受影响用户
  • 完整的事件响应流程:检测 → 评估 → 遏制 → 修复 → 复盘
  • 安全漏洞报告渠道:security@mindlm.io

用户安全控制

我们相信用户应当对自己的数据拥有完全的控制权。MindLM 提供多种工具帮助您管理账户安全和数据。

  • 导出所有个人数据(思维导图、账户信息)
  • 永久删除账户及所有关联数据
  • 管理思维导图的分享状态,随时撤销公开链接
  • 查看账户活动记录和登录历史
  • 自主管理密码和安全设置

联系我们

安全是一个持续改进的过程。我们欢迎安全研究人员和用户报告潜在的安全问题。

如果您发现任何安全漏洞或有安全相关的疑问,请通过 security@mindlm.io 联系我们的安全团队。我们承诺认真对待每一份安全报告,并在确认后及时采取修复措施。

一般产品支持请联系 support@mindlm.io。

如有安全相关问题或发现安全漏洞,请联系 security@mindlm.io

    MindLM 安全说明 - 数据与隐私保护