提问人:sahandkh1419 提问时间:11/17/2023 最后编辑:halfersahandkh1419 更新时间:11/21/2023 访问量:38
pycaret 中的 compare_models() 函数“未使用的关键字参数:cuML 估算器初始化期间n_jobs”错误
compare_models() function in pycaret "Unused keyword parameter: n_jobs during cuML estimator initialization" error
问:
我在尝试使用启用了 GPU 的 Google Colab 运行超参数优化的回归问题时遇到了问题。我已经概述了我所采取的步骤和我面临的问题。
以下是我遵循的步骤:
- 在 Google Colab 上启用 GPU。
- 使用命令安装库,然后重新启动会话。
pycaret
!pip install pycaret[full]
- 已使用 和 检查已安装的版本,返回版本 3.2.0。
import pycaret
print(pycaret.__version__)
- 用于显示系统和库信息(包含在末尾)。
pycaret.show_versions()
- 已检查 CUDA 版本,确认版本为 11.8。
!nvcc --version
- 安装了cuML并使用并重新启动了会话。
!pip install --extra-index-url=https://pypi.nvidia.com cuml-cu11
- 使用 和 检查了 cuML 版本,该版本返回版本 23.10.00。
import cuml
print(cuml.__version__)
使用 pandas 加载数据后,我尝试使用以下方法设置回归模型:
from pycaret.regression import *
s = setup(data, target=target_column, session_id=109, preprocess=True, use_gpu=True,
pca=True, normalize=True, polynomial_features=False, feature_selection=False,
pca_components=0.95, normalize_method="zscore", fold=5, train_size=0.8)
best = compare_models(sort="MSE")
但是,在此过程中,我遇到了警告和错误,例如:
[LightGBM] [Warning] There are no meaningful features which satisfy the provided configuration. Decreasing Dataset parameters min_data_in_bin or min_data_in_leaf and re-constructing Dataset might resolve this warning.
[LightGBM] [Info] This is the GPU trainer!!
[LightGBM] [Info] Total Bins 0
[LightGBM] [Info] Number of data points in the train set: 2, number of used features: 0
[LightGBM] [Warning] Using sparse features with CUDA is currently not supported.
随后,会话崩溃并自动重新启动,并显示以下消息:
[I] [14:06:56.249093] Unused keyword parameter: n_jobs during cuML estimator initialization
pycaret.show_versions()
具有以下输出:
System:
python: 3.10.12 (main, Jun 11 2023, 05:26:28) [GCC 11.4.0]
executable: /usr/bin/python3
machine: Linux-5.15.120+-x86_64-with-glibc2.35
PyCaret required dependencies:
pip: 23.1.2
setuptools: 67.7.2
pycaret: 3.2.0
IPython: 7.34.0
ipywidgets: 7.7.1
tqdm: 4.66.1
numpy: 1.23.5
pandas: 1.5.3
jinja2: 3.1.2
scipy: 1.10.1
joblib: 1.3.2
sklearn: 1.2.2
pyod: 1.1.1
imblearn: 0.10.1
category_encoders: 2.6.3
lightgbm: 4.1.0
numba: 0.57.1
requests: 2.31.0
matplotlib: 3.6.0
scikitplot: 0.3.7
yellowbrick: 1.5
plotly: 5.15.0
plotly-resampler: Not installed
kaleido: 0.2.1
schemdraw: 0.15
statsmodels: 0.14.0
sktime: 0.21.1
tbats: 1.1.3
pmdarima: 2.0.4
psutil: 5.9.5
markupsafe: 2.1.3
pickle5: Not installed
cloudpickle: 2.2.1
deprecation: 2.1.0
xxhash: 3.4.1
wurlitzer: 3.0.3
PyCaret optional dependencies:
shap: 0.43.0
interpret: 0.4.4
umap: 0.5.4
ydata_profiling: 4.6.0
explainerdashboard: 0.4.3
autoviz: Not installed
fairlearn: 0.7.0
deepchecks: Not installed
xgboost: 2.0.1
catboost: 1.2.2
kmodes: 0.12.2
mlxtend: 0.22.0
statsforecast: 1.5.0
tune_sklearn: 0.5.0
ray: 2.8.0
hyperopt: 0.2.7
optuna: 3.4.0
skopt: 0.9.0
mlflow: 1.30.1
gradio: 3.50.2
fastapi: 0.104.1
uvicorn: 0.24.0.post1
m2cgen: 0.10.0
evidently: 0.2.8
fugue: 0.8.6
streamlit: Not installed
prophet: 1.1.5
我已经按照 GitHub 和 Stack Overflow 的各种说明进行了操作,但无法解决此问题。由于超参数优化的资源密集型性质,我需要在 Colab 上运行此代码。
可能导致此问题的原因是什么,我该如何解决?
答: 暂无答案
评论