Atrribute 错误:“AlignConfig”对象没有属性“encoder”,“PoolFormerConfig”对象没有属性“encoder”

Atrribute Error: 'AlignConfig' object has no attribute 'encoder', 'PoolFormerConfig' object has no attribute 'encoder'

提问人:Priya Savithiri Baskaran 提问时间:11/9/2023 更新时间:11/9/2023 访问量:17

问:

我正在使用** python==3.10, torch==1.13.0+cpu, transformers==4.35.0.** 我正在尝试使用以下命令对 pytorch 框架中的转换器模型进行 (cpu) 基准测试:

python run_benchmark.py --models kakaobrain/align-base --batch_sizes 1 --sequence_lengths 384

当我执行命令时,收到 atrribute 错误:


FutureWarning:类 <类 'transformers.benchmark.benchmark.PyTorchBenchmark'> 已弃用。Hugging Face Benchmarking 实用程序通常已弃用,建议使用外部 Benchmarking 库对 Transformer 模型进行基准测试。 warnings.warn( 1 / 1

“AlignConfig”对象没有属性“encoder” “AlignConfig”对象没有属性“encoder”

回溯(最近一次调用最后一次): 文件“/home/priya/priya/transformers/examples/pytorch/benchmarking/run_benchmark.py”,第 50 行,在 主要() 文件“/home/priya/priya/transformers/examples/pytorch/benchmarking/run_benchmark.py”,第 46 行,在 main 基准.run() 文件“/home/priya/miniconda3/envs/pyo/lib/python3.10/site-packages/transformers/benchmark/benchmark_utils.py”,第 710 行,正在运行 内存, inference_summary = self.inference_memory(model_name, batch_size, sequence_length) ValueError:要解压缩的值太多(预期为 2)


我在尝试使用 pip 以及源代码安装转换器包时遇到了同样的问题。 同样的问题在许多变压器型号中仍然存在。在此,我列出其中的几个:

1.kakaobrain/align-base 2.BAAI/AltCLIP的 3.商汤时间/deformable-detr 4.帆/poolformer_s12 等。

我错过了什么吗?另一个问题是有人在没有配置文件的情况下尝试过吗?

我了解 Hugging Face Benchmarking 实用程序的弃用。我很好奇是否有人仍在使用或拥有有关替代基准测试工具的信息。关于这个问题,我们是否可以利用讨论或资源?

我还尝试了--only_pretrain_model args来避免配置文件。但编码器问题仍然存在。

问题:

“AlignConfig”对象没有属性“encoder” “AlignConfig”对象没有属性“encoder”

非常感谢有关此问题的任何帮助,谢谢!

huggingface-transformers 属性错误 huggingface

评论


答: 暂无答案