pycaret 中的 compare_models() 函数“未使用的关键字参数:cuML 估算器初始化期间n_jobs”错误

compare_models() function in pycaret "Unused keyword parameter: n_jobs during cuML estimator initialization" error

提问人:sahandkh1419 提问时间:11/17/2023 最后编辑:halfersahandkh1419 更新时间:11/21/2023 访问量:38

问:

我在尝试使用启用了 GPU 的 Google Colab 运行超参数优化的回归问题时遇到了问题。我已经概述了我所采取的步骤和我面临的问题。

以下是我遵循的步骤:

  1. 在 Google Colab 上启用 GPU。
  2. 使用命令安装库,然后重新启动会话。pycaret!pip install pycaret[full]
  3. 已使用 和 检查已安装的版本,返回版本 3.2.0。import pycaretprint(pycaret.__version__)
  4. 用于显示系统和库信息(包含在末尾)。pycaret.show_versions()
  5. 已检查 CUDA 版本,确认版本为 11.8。!nvcc --version
  6. 安装了cuML并使用并重新启动了会话。!pip install --extra-index-url=https://pypi.nvidia.com cuml-cu11
  7. 使用 和 检查了 cuML 版本,该版本返回版本 23.10.00。import cumlprint(cuml.__version__)

使用 pandas 加载数据后,我尝试使用以下方法设置回归模型:

from pycaret.regression import *

s = setup(data, target=target_column, session_id=109, preprocess=True, use_gpu=True,
           pca=True, normalize=True, polynomial_features=False, feature_selection=False,
           pca_components=0.95, normalize_method="zscore", fold=5, train_size=0.8)
best = compare_models(sort="MSE")

但是,在此过程中,我遇到了警告和错误,例如:

[LightGBM] [Warning] There are no meaningful features which satisfy the provided configuration. Decreasing Dataset parameters min_data_in_bin or min_data_in_leaf and re-constructing Dataset might resolve this warning.
[LightGBM] [Info] This is the GPU trainer!!
[LightGBM] [Info] Total Bins 0
[LightGBM] [Info] Number of data points in the train set: 2, number of used features: 0
[LightGBM] [Warning] Using sparse features with CUDA is currently not supported.

随后,会话崩溃并自动重新启动,并显示以下消息:

[I] [14:06:56.249093] Unused keyword parameter: n_jobs during cuML estimator initialization

pycaret.show_versions()具有以下输出:

System:
    python: 3.10.12 (main, Jun 11 2023, 05:26:28) [GCC 11.4.0]
executable: /usr/bin/python3
   machine: Linux-5.15.120+-x86_64-with-glibc2.35

PyCaret required dependencies:
                 pip: 23.1.2
          setuptools: 67.7.2
             pycaret: 3.2.0
             IPython: 7.34.0
          ipywidgets: 7.7.1
                tqdm: 4.66.1
               numpy: 1.23.5
              pandas: 1.5.3
              jinja2: 3.1.2
               scipy: 1.10.1
              joblib: 1.3.2
             sklearn: 1.2.2
                pyod: 1.1.1
            imblearn: 0.10.1
   category_encoders: 2.6.3
            lightgbm: 4.1.0
               numba: 0.57.1
            requests: 2.31.0
          matplotlib: 3.6.0
          scikitplot: 0.3.7
         yellowbrick: 1.5
              plotly: 5.15.0
    plotly-resampler: Not installed
             kaleido: 0.2.1
           schemdraw: 0.15
         statsmodels: 0.14.0
              sktime: 0.21.1
               tbats: 1.1.3
            pmdarima: 2.0.4
              psutil: 5.9.5
          markupsafe: 2.1.3
             pickle5: Not installed
         cloudpickle: 2.2.1
         deprecation: 2.1.0
              xxhash: 3.4.1
           wurlitzer: 3.0.3

PyCaret optional dependencies:
                shap: 0.43.0
           interpret: 0.4.4
                umap: 0.5.4
     ydata_profiling: 4.6.0
  explainerdashboard: 0.4.3
             autoviz: Not installed
           fairlearn: 0.7.0
          deepchecks: Not installed
             xgboost: 2.0.1
            catboost: 1.2.2
              kmodes: 0.12.2
             mlxtend: 0.22.0
       statsforecast: 1.5.0
        tune_sklearn: 0.5.0
                 ray: 2.8.0
            hyperopt: 0.2.7
              optuna: 3.4.0
               skopt: 0.9.0
              mlflow: 1.30.1
              gradio: 3.50.2
             fastapi: 0.104.1
             uvicorn: 0.24.0.post1
              m2cgen: 0.10.0
           evidently: 0.2.8
               fugue: 0.8.6
           streamlit: Not installed
             prophet: 1.1.5

我已经按照 GitHub 和 Stack Overflow 的各种说明进行了操作,但无法解决此问题。由于超参数优化的资源密集型性质,我需要在 Colab 上运行此代码。

可能导致此问题的原因是什么,我该如何解决?

google-colaboratory lightgbm pycaret cuml

评论


答: 暂无答案