转换器库缓存路径未更改



我已经尝试过了,但对我不起作用。我正在使用这个Git回购。我正在构建一个桌面应用程序,不希望用户下载模型。我想发货的模型与建设。我知道transformers库在cache/torch/transformers中查找模型。如果没有,请下载。我也知道你可以在pre_trained中传递cache_dir参数。我正在尝试这个。

cache = os.path.join(os.path.abspath(os.getcwd()), 'Transformation/Annotators/New Sentiment Analysis/transformers')
os.environ['TRANSFORMERS_CACHE'] = cache

if args.model_name_or_path is None:
args.model_name_or_path = 'barissayil/bert-sentiment-analysis-sst'
#Configuration for the desired transformer model
config = AutoConfig.from_pretrained(args.model_name_or_path, cache_dir=cache)

我已经尝试了上面提到的问题的解决方案,也尝试了cache_dir。transformer文件夹和analyze.py在同一目录中。整个repo和transformer文件都在NewSentimentAnalysis目录中。

您实际上还没有显示不起作用的代码,但我认为您做了如下操作:

from transformers import AutoConfig
import os
os.environ['TRANSFORMERS_CACHE'] = '/blabla/cache/'
config = AutoConfig.from_pretrained('barissayil/bert-sentiment-analysis-sst')
os.path.isdir('/blabla/cache/')

输出:

False

这不会创建一个新的默认缓存位置,因为您在设置环境变量之前导入了transformers库(我修改了您的链接问题,使其更加清晰(。修改默认缓存目录的正确方法是在导入transformers库之前设置环境变量

import os
os.environ['TRANSFORMERS_CACHE'] = '/blabla/cache/'
from transformers import AutoConfig
config = AutoConfig.from_pretrained('barissayil/bert-sentiment-analysis-sst')
os.path.isdir('/blabla/cache/')

输出:

True

最新更新