add todo.md and uv support.

This commit is contained in:
Jiao77
2025-09-03 22:26:32 +08:00
parent 7ef7d6d3bc
commit b4929311d7
5 changed files with 1350 additions and 28 deletions

View File

@@ -19,7 +19,7 @@
</div> </div>
# Geo-Layout Transformer 🚀 # Geo-Layout Transformer 🚀 🔬
**A Unified, Self-Supervised Foundation Model for Physical Design Analysis** **A Unified, Self-Supervised Foundation Model for Physical Design Analysis**
@@ -39,7 +39,7 @@
- **Frameworks**: PyTorch, PyTorch Geometric (with CUDA optional) - **Frameworks**: PyTorch, PyTorch Geometric (with CUDA optional)
- **EDA I/O**: GDSII/OASIS (via `klayout` Python API) - **EDA I/O**: GDSII/OASIS (via `klayout` Python API)
## 1. Vision ## 1. Vision 🎯
The **Geo-Layout Transformer** is a research project aimed at creating a paradigm shift in Electronic Design Automation (EDA) for physical design. Instead of relying on a fragmented set of heuristic-based tools, we are building a single, unified foundation model that understands the deep, contextual "language" of semiconductor layouts. The **Geo-Layout Transformer** is a research project aimed at creating a paradigm shift in Electronic Design Automation (EDA) for physical design. Instead of relying on a fragmented set of heuristic-based tools, we are building a single, unified foundation model that understands the deep, contextual "language" of semiconductor layouts.
@@ -51,7 +51,7 @@ By leveraging a novel hybrid **Graph Neural Network (GNN) + Transformer** archit
Our vision is to move from disparate, task-specific tools to a centralized, reusable "Layout Understanding Engine" that accelerates the design cycle and pushes the boundaries of PPA (Power, Performance, and Area). Our vision is to move from disparate, task-specific tools to a centralized, reusable "Layout Understanding Engine" that accelerates the design cycle and pushes the boundaries of PPA (Power, Performance, and Area).
## 2. Core Architecture ## 2. Core Architecture 🏗️
The model's architecture is designed to hierarchically process layout information, mimicking how a human expert analyzes a design from local details to global context. The model's architecture is designed to hierarchically process layout information, mimicking how a human expert analyzes a design from local details to global context.
@@ -93,15 +93,15 @@ Geo-Layout-Transformer/
└─ README*.md # English/Chinese documentation └─ README*.md # English/Chinese documentation
``` ```
## 3. Getting Started ## 3. Getting Started ⚙️
### 3.1. Prerequisites ### 3.1. Prerequisites 🧰
* Python 3.9+ * Python 3.9+
* A Conda environment is highly recommended. * A Conda environment is highly recommended.
* Access to EDA tools for generating labeled data (e.g., a DRC engine for hotspot labels). * Access to EDA tools for generating labeled data (e.g., a DRC engine for hotspot labels).
### 3.2. Installation ### 3.2. Installation 🚧
1. **Clone the repository:** 1. **Clone the repository:**
```bash ```bash
@@ -129,11 +129,11 @@ Geo-Layout-Transformer/
> Tip: GPU is optional. For CPU-only environments, install the CPU variants of PyTorch/PyG. > Tip: GPU is optional. For CPU-only environments, install the CPU variants of PyTorch/PyG.
## 4. Project Usage ## 4. Project Usage 🛠️
The project workflow is divided into two main stages: data preprocessing and model training. The project workflow is divided into two main stages: data preprocessing and model training.
### 4.1. Stage 1: Data Preprocessing ### 4.1. Stage 1: Data Preprocessing 🧩
The first step is to convert your GDSII/OASIS files into a graph dataset that the model can consume. The first step is to convert your GDSII/OASIS files into a graph dataset that the model can consume.
@@ -161,11 +161,11 @@ When building a graph for each patch, we now preserve both global and per-patch
This follows the spirit of LayoutGMNs structural encoding while staying compatible with our GNN encoder. This follows the spirit of LayoutGMNs structural encoding while staying compatible with our GNN encoder.
### 4.2. Stage 2: Model Training ### 4.2. Stage 2: Model Training 🏋️
Once the dataset is ready, you can train the Geo-Layout Transformer. Once the dataset is ready, you can train the Geo-Layout Transformer.
#### Self-Supervised Pre-training (Recommended) #### Self-Supervised Pre-training (Recommended)
To build a powerful foundation model, we first pre-train it on unlabeled data using a "Masked Layout Modeling" task. To build a powerful foundation model, we first pre-train it on unlabeled data using a "Masked Layout Modeling" task.
@@ -174,7 +174,7 @@ python main.py --config-file configs/default.yaml --mode pretrain --data-dir dat
``` ```
This will train the model to understand the fundamental "grammar" of physical layouts without requiring any expensive labels. This will train the model to understand the fundamental "grammar" of physical layouts without requiring any expensive labels.
#### Supervised Fine-tuning #### Supervised Fine-tuning 🎯
After pre-training, you can fine-tune the model on a smaller, labeled dataset for a specific task like hotspot detection. After pre-training, you can fine-tune the model on a smaller, labeled dataset for a specific task like hotspot detection.
@@ -185,7 +185,7 @@ After pre-training, you can fine-tune the model on a smaller, labeled dataset fo
python main.py --config-file configs/hotspot_detection.yaml --mode train --data-dir data/processed/labeled_hotspots/ --checkpoint-path /path/to/pretrained_model.pth python main.py --config-file configs/hotspot_detection.yaml --mode train --data-dir data/processed/labeled_hotspots/ --checkpoint-path /path/to/pretrained_model.pth
``` ```
## 5. Roadmap & Contribution ## 5. Roadmap & Contribution 🗺️
This project is ambitious and we welcome contributions. Our future roadmap includes: This project is ambitious and we welcome contributions. Our future roadmap includes:
@@ -196,7 +196,7 @@ This project is ambitious and we welcome contributions. Our future roadmap inclu
Please feel free to open an issue or submit a pull request. Please feel free to open an issue or submit a pull request.
## Acknowledgments ## Acknowledgments 🙏
We stand on the shoulders of open-source communities. This project draws inspiration and/or utilities from: We stand on the shoulders of open-source communities. This project draws inspiration and/or utilities from:

View File

@@ -19,27 +19,27 @@
</div> </div>
# Geo-Layout Transformer 🚀 # Geo-Layout Transformer 🚀 🔬
**一个用于物理设计分析的统一、自监督基础模型** **一个用于物理设计分析的统一、自监督基础模型**
--- ---
## ✨ 亮点 ## ✨ 亮点 🌟
- **统一基础模型**:覆盖多种物理设计分析任务 - **统一基础模型**:覆盖多种物理设计分析任务
- **混合 GNN + Transformer**:从局部到全局建模版图语义 - **混合 GNN + Transformer**:从局部到全局建模版图语义
- **自监督预训练**:在无标签 GDSII/OASIS 上学习强泛化表示 - **自监督预训练**:在无标签 GDSII/OASIS 上学习强泛化表示
- **模块化任务头**:轻松适配(如热点检测、连通性验证) - **模块化任务头**:轻松适配(如热点检测、连通性验证)
## 🖥️ 支持系统 ## 🖥️ 支持系统 💻
- **Python**3.9+ - **Python**3.9+
- **操作系统**macOS 13+/Apple Silicon、LinuxUbuntu 20.04/22.04。Windows 建议使用 **WSL2** - **操作系统**macOS 13+/Apple Silicon、LinuxUbuntu 20.04/22.04。Windows 建议使用 **WSL2**
- **深度学习框架**PyTorch、PyTorch GeometricCUDA 可选) - **深度学习框架**PyTorch、PyTorch GeometricCUDA 可选)
- **EDA I/O**GDSII/OASIS通过 `klayout` Python API - **EDA I/O**GDSII/OASIS通过 `klayout` Python API
## 1. 项目愿景 ## 1. 项目愿景 🎯
**Geo-Layout Transformer** 是一个旨在推动电子设计自动化EDA物理设计领域范式转变的研究项目。我们不再依赖于一套零散的、基于启发式规则的工具而是致力于构建一个统一的基础模型使其能够理解半导体版图深层次的、上下文相关的“设计语言”。 **Geo-Layout Transformer** 是一个旨在推动电子设计自动化EDA物理设计领域范式转变的研究项目。我们不再依赖于一套零散的、基于启发式规则的工具而是致力于构建一个统一的基础模型使其能够理解半导体版图深层次的、上下文相关的“设计语言”。
@@ -51,7 +51,7 @@
我们的愿景是,从目前分散的、任务特定的工具,演进为一个集中的、可复用的“版图理解引擎”,从而加速设计周期,并突破 PPA功耗、性能、面积的极限。 我们的愿景是,从目前分散的、任务特定的工具,演进为一个集中的、可复用的“版图理解引擎”,从而加速设计周期,并突破 PPA功耗、性能、面积的极限。
## 2. 核心架构 ## 2. 核心架构 🏗️
该模型的架构设计旨在分层处理版图信息,模仿人类专家从局部细节到全局上下文分析设计的过程。 该模型的架构设计旨在分层处理版图信息,模仿人类专家从局部细节到全局上下文分析设计的过程。
@@ -65,7 +65,7 @@
4. **特定任务头**:从 Transformer 输出的、具有全局上下文感知能力的最终嵌入被送入简单、轻量级的神经网络“头”Head以执行特定的下游任务。这种模块化设计使得核心模型能够以最小的代价适应新的应用。 4. **特定任务头**:从 Transformer 输出的、具有全局上下文感知能力的最终嵌入被送入简单、轻量级的神经网络“头”Head以执行特定的下游任务。这种模块化设计使得核心模型能够以最小的代价适应新的应用。
## 🧭 项目结构 ## 🧭 项目结构 📁
```text ```text
Geo-Layout-Transformer/ Geo-Layout-Transformer/
@@ -93,15 +93,15 @@ Geo-Layout-Transformer/
└─ README*.md # 中英文文档 └─ README*.md # 中英文文档
``` ```
## 3. 快速上手 ## 3. 快速上手 ⚙️
### 3.1. 环境要求 ### 3.1. 环境要求 🧰
* Python 3.9+ * Python 3.9+
* 强烈建议使用 Conda 进行环境管理。 * 强烈建议使用 Conda 进行环境管理。
* 能够访问 EDA 工具以生成带标签的数据(例如,使用 DRC 工具生成热点标签)。 * 能够访问 EDA 工具以生成带标签的数据(例如,使用 DRC 工具生成热点标签)。
### 3.2. 安装步骤 ### 3.2. 安装步骤 🚧
1. **克隆代码仓库:** 1. **克隆代码仓库:**
```bash ```bash
@@ -129,11 +129,11 @@ Geo-Layout-Transformer/
> 提示GPU 不是必须的。仅 CPU 环境可安装 PyTorch/PyG 的 CPU 版本。 > 提示GPU 不是必须的。仅 CPU 环境可安装 PyTorch/PyG 的 CPU 版本。
## 4. 项目使用 ## 4. 项目使用 🛠️
项目的工作流程分为两个主要阶段:数据预处理和模型训练。 项目的工作流程分为两个主要阶段:数据预处理和模型训练。
### 4.1. 阶段一:数据预处理 ### 4.1. 阶段一:数据预处理 🧩
第一步是将您的 GDSII/OASIS 文件转换为模型可以使用的图数据集。 第一步是将您的 GDSII/OASIS 文件转换为模型可以使用的图数据集。
@@ -161,7 +161,7 @@ Geo-Layout-Transformer/
该设计借鉴了 LayoutGMN 的结构编码思想,同时与我们现有的 GNN 编码器保持兼容。 该设计借鉴了 LayoutGMN 的结构编码思想,同时与我们现有的 GNN 编码器保持兼容。
### 4.2. 阶段二:模型训练 ### 4.2. 阶段二:模型训练 🏋️
数据集准备就绪后,您就可以开始训练 Geo-Layout Transformer。 数据集准备就绪后,您就可以开始训练 Geo-Layout Transformer。
@@ -185,7 +185,7 @@ python main.py --config-file configs/default.yaml --mode pretrain --data-dir dat
python main.py --config-file configs/hotspot_detection.yaml --mode train --data-dir data/processed/labeled_hotspots/ --checkpoint-path /path/to/pretrained_model.pth python main.py --config-file configs/hotspot_detection.yaml --mode train --data-dir data/processed/labeled_hotspots/ --checkpoint-path /path/to/pretrained_model.pth
``` ```
## 5. 发展路线与贡献 ## 5. 发展路线与贡献 🗺️
这是一个宏伟的项目,我们欢迎任何形式的贡献。我们未来的发展路线图包括: 这是一个宏伟的项目,我们欢迎任何形式的贡献。我们未来的发展路线图包括:
@@ -196,7 +196,7 @@ python main.py --config-file configs/default.yaml --mode pretrain --data-dir dat
欢迎随时提出 Issue 或提交 Pull Request。 欢迎随时提出 Issue 或提交 Pull Request。
## 致谢 ## 致谢 🙏
本项目离不开开源社区的贡献与启发,特别感谢: 本项目离不开开源社区的贡献与启发,特别感谢:

124
TODO.md Normal file
View File

@@ -0,0 +1,124 @@
# TODO — Geo-Layout-Transformer 🚀
目的:遍历项目并把发现的未实现/待完善项整理到此文件,方便后续开发分配与跟踪。📝
简短项目说明 ✨
- 这是一个面向半导体版图GDSII/OASIS的研究型工程目标构建一个混合 GNN + Transformer 的“版图理解”基础模型(自监督预训练 + 任务微调),用于热点评估、连通性校验、版图匹配等下游任务。
检索与覆盖说明(工具扫描结果) 🔎
- 已扫描主要入口和核心模块:`README*.md`, `main.py`, `src/models/*`, `src/data/*`, `src/engine/*`, `scripts/*`
- 发现显式未实现/占位符(`pass``TODO`)的位置列在下方。
-一览:显式未实现 / 需要实现(按优先级排序)
- [ ] 1) 必要:数据处理与加载(高优先级) ⚠️
- 文件:`src/data/dataset.py`
- 问题:继承 `InMemoryDataset``download()``process()` 方法均为 `pass`
- 影响:无法自动将原始 GDS/OASIS 转换并打包为 PyG 可加载的 `data.pt``main.py` 依赖 `LayoutDataset(root=...)` 加载数据,会在没有 `processed` 数据时失败。
- 建议实现:
1. `download()`:可选,从远程或指定路径复制原始文件(若不需要可留空并在 README 标注)。
2. `process()`:读取 `raw_dir` 下已由 `scripts/preprocess_gds.py` 生成的 `.pt` 或中间文件,或直接在此处调用解析与图构建逻辑(调用 `src/data/gds_parser.py``src/data/graph_constructor.py`),最后保存 `torch.save((data, slices), self.processed_paths[0])`
3. 文档化输入目录结构和所需文件名约定。
- 估时38 小时,取决于是否复用 `scripts/preprocess_gds.py`
- [ ] 2) 必要:预处理脚本(高优先级) 🔧
- 文件:`scripts/preprocess_gds.py`
- 问题:脚本中存在 `pass``TODO`(未实现从标签文件加载标签或完整的预处理流程)。
- 影响:无法从 GDS/OASIS 生成可训练的数据集patch 切分、polygon 裁剪、节点/边构建、保存为 `.pt`)。
- 建议实现:
1. 实现或封装 `gds_parser`(基于 `gdstk``klayout`)以读取多层几何并输出 polygon 列表与层信息。
2. 实现 patch 切分窗口大小、stride、polygon 裁剪与 `is_partial`、area ratio 计算。
3. 调用 `graph_constructor` 构造 PyG `Data`节点特征、边、metadata并保存为单个或批量 `.pt` 文件放入 `processed_dir`
4. 提供 `--overwrite``--workers``--verbose` 等 CLI 参数。
- 依赖:`gdstk``klayout`README 中已提及)。
- 估时216 小时(实现完整解析 + 并行化视复杂度而定)。
- [ ] 3) 必要:训练脚本中的数据集划分与 checkpoint中/高优先级) 🗂️
- 文件:`main.py`
- 问题:存在 TODO当前将整个 `LayoutDataset` 直接用于 train/val loaders 而非划分;模型 checkpoint 加载被注释(示例中注释掉 `load_state_dict`)。
- 影响:无法做标准的训练/验证/测试分割,也缺少断点重载逻辑。
- 建议实现:
1.`main.py` 中实现基于 `random_split` 或按设计文件/布局分层划分(确保跨-layout 的分割策略),并将结果保存 `splits/` 以保证可复现性。
2. 实现 checkpoint 的保存(按 epoch/metric和加载逻辑支持 optimizer 和 scheduler state
- 估时13 小时。
- [ ] 4) 必要/需修正:模型中批次/序列维度处理(中优先级) 🧩
- 文件:`src/models/geo_layout_transformer.py`
- 问题:代码里直接用 `nodes_per_graph[0]` 假设每个图sample包含相同数量的 patchnodes然后用 `.view(num_graphs, nodes_per_graph[0], -1)` 强制 reshape。这在真实数据里通常不成立patch 数量/节点数会变化)。
- 影响:当样本 patch 数不同或数据使用不定长序列时会崩溃或产生错误的上下文分割。
- 建议实现:
1. 使用 `torch_geometric``Batch` 提供的信息按-图聚合 patch embeddings例如对每个图做 mean/max pooling或构建 padded sequences 并 mask
2. 另外可在 `graph_constructor` 处保证每个样本序列长度固定(但这限制较大)。
- 估时26 小时。
- [ ] 5) 必要/改进Trainer 功能不完整(中优先级) 🚦
- 文件:`src/engine/trainer.py`
- 问题:仅支持少数优化器和 BCE 损失没有早停、学习率调度、checkpoint 保存、验证调用;示例中注释掉了 Evaluator 的使用。
- 影响:难以进行标准训练流程与调参。
- 建议实现:
1. 增加 checkpoint 保存/加载model + optimizer + epoch
2. 支持 scheduler如 CosineAnnealingLR、ReduceLROnPlateau与早停逻辑。
3.`run()` 中每个 epoch 后调用 `Evaluator`(或传入回调)做验证与模型选择。
4. 扩展损失函数注册,添加 `cross_entropy``focal``dice`(视任务而定)。
- 估时38 小时。
- [ ] 6) 改进/增强:任务头与可扩展性(中优先级) 🧠
- 文件:`src/models/task_heads.py``src/models/geo_layout_transformer.py`
- 问题:任务头目前仅示例了 classification 与 matching两者接口可能需要标准化输入 shape、masking、loss 约定)。
- 建议:定义统一的 Head 接口forward 接受 embeddings + mask可返回 logits + aux并在配置configs/*.yaml中声明 head 类型与损失配置。
- 估时24 小时。
- [ ] 7) 可选scripts/visualize_attention.py 与可解释性工具(低优先级) 🔍
- 说明README 提到 attention 可视化,但 `scripts/visualize_attention.py` 需要检查是否完整实现(未详细扫描)。如果目标是可解释性,应实现从 Transformer attention 到版图坐标/多边形映射的工具链。
- 估时412 小时(视可视化深度)。
- [ ] 8) 项目文档 & CI低优先级 📚
- 问题:`pyproject.toml` 中 Python 要求为 3.12(但 README 写 3.9+),依赖列表为空,`requirements.txt` 存在但需与 `pyproject` 同步。
- 建议:统一 python 版本约定、完善 `pyproject.toml` dependencies 或使用 `requirements.txt`,添加 basic `tox`/`github actions` 用于 lint/test。
- 估时13 小时。
隐含的设计改进(建议) 💡
- 增加端到端的单元/集成测试(最小例:人工构造的 patch -> graph -> forward pass确保 pipeline 各步正确。
-`scripts/preprocess_gds.py` 中加入小样本模式debug 用),能快速构造少量样本用于单元测试。
- 考虑在 `src/data/` 中添加一个轻量的 synthetic generator随机几何与层便于 CI 下的快速运行和回归测试。
建议的短期工作分配(建议先做 1→2→3 🔜
- A. 实现 `scripts/preprocess_gds.py`若已有成熟解析器可复用216h
- B. 实现 `src/data/dataset.py::process()` 加载 `processed/` 数据并写入 `data.pt`3h
- C. 修复 `geo_layout_transformer` 中的序列 reshape改为按图聚合或 padding+mask36h
- D. 在 `main.py` 中实现数据划分与 checkpoint load/save13h
- E. 在 `trainer` 中加入 eval & checkpoint36h
- 质量门quality gates
- 在完成 A+B 后,应跑通一个最小端到端 smoke test生成 15 个 processed `.pt`,用 `main.py --mode pretrain``--mode train` 在 1 epoch 上跑通CPU 可行)。
- 增加 2 个单元测试:
1. graph_constructor 测试:输入简单 polygon 输出节点/边及元数据
2. model 前向测试:使用 synthetic batch 验证 forward 不崩溃并返回期望 shape
文件与代码位置清单(已发现的占位实现)
- src/data/dataset.py — download(), process(): pass
- scripts/preprocess_gds.py — 主要预处理逻辑存在 pass/TODO
- main.py — TODO: 数据集划分checkpoint 加载示例被注释
- src/models/geo_layout_transformer.py — 假定每个图拥有相同 patch 数reshape 问题),建议改为可变长度处理
- src/engine/trainer.py — 基础训练循环已实现但缺少评估调用、checkpoint、scheduler 支持
后续步骤(我可以为你做的)
- 如果你同意,我将按优先级 **实现/修复 A + B + C**
1. 实现 `scripts/preprocess_gds.py` 的基础版本(支持 gdstk 作为依赖)并保存 `processed/*.pt`
2.`src/data/dataset.py` 中实现 `process()` 以加载 `processed` 文件并生成 `data.pt`
3. 修复 `geo_layout_transformer` 中的 reshape采用 pooling 或 padded sequences + mask。
4. 运行一个快速 smoke test1 epochCPU并把结果写入 `TODO.md` 下的进度条目。
要求与注意事项(请确认或提供)
- 你希望我直接修改代码并在仓库中提交这些改动吗?(我已准备好直接修改并运行 smoke test
- 如果有偏好的 GDS 解析库(`gdstk``klayout`),请说明;我会优先使用 `gdstk`requirements.txt 已列出)。
需求覆盖映射
- "遍历项目代码,找出项目做什么" —— Done在文档与简短项目说明中覆盖
- "找出哪些没有实现的地方" —— Done列出显式 `pass` / `TODO`,并补充潜在的设计缺陷与改进项)。
- "整理到 TODO.md 里面" —— Done此文件即为输出
变更记录
- 创建:`TODO.md`(列出问题与修复建议)。
最后简短说明:如果你允许我继续实现优先级 A+B+C我将开始具体编码并在每个重要阶段给出进度更新包括运行结果和短时间的 smoke tests

View File

@@ -4,4 +4,17 @@ version = "0.1.0"
description = "Add your description here" description = "Add your description here"
readme = "README.md" readme = "README.md"
requires-python = ">=3.12" requires-python = ">=3.12"
dependencies = [] dependencies = [
"gdstk>=0.9.61",
"numpy>=2.3.2",
"pandas>=2.3.2",
"pyyaml>=6.0.2",
"scikit-learn>=1.7.1",
"torch>=2.8.0",
"torch-geometric>=2.6.1",
"torchvision>=0.23.0",
]
[[tool.uv.index]]
url = "https://pypi.tuna.tsinghua.edu.cn/simple"
default = true

1185
uv.lock generated Normal file

File diff suppressed because it is too large Load Diff