Tensorflow - 从张量中提取字符串



我正在尝试遵循本教程的"使用 tf.data 加载"部分。在本教程中,他们可以只使用字符串张量,但是,我需要提取文件名的字符串表示形式,因为我需要从字典中查找额外的数据。我似乎无法提取张量的字符串部分。我很确定张量的.name属性应该返回字符串,但我不断收到一条错误消息,说KeyError: 'strided_slice_1:0'所以不知何故,切片正在做一些奇怪的事情?

我正在使用以下方法加载数据集:

dataset_list = tf.data.Dataset.list_files(str(DATASET_DIR / "data/*"))

然后使用以下方法进行处理:

def process(t):
return dataset.process_image_path(t, param_data, param_min_max)
dataset_labeled = dataset_list.map(
process, 
num_parallel_calls=AUTOTUNE)

其中param_dataparam_min_max是我加载的两个字典,其中包含构建标签所需的额外数据。

这是我用来处理数据张量的三个函数(来自我的dataset.py(:

def process_image_path(image_path, param_data_file, param_max_min_file):
label = path_to_label(image_path, param_data_file, param_max_min_file)
img = tf.io.read_file(image_path)
img = decode_img(img)
return (img, label)

def decode_img(img):
"""Converts an image to a 3D uint8 tensor"""
img = tf.image.decode_jpeg(img, channels=3)
img = tf.image.convert_image_dtype(img, tf.float32)
return img

def path_to_label(image_path, param_data_file, param_max_min_file):
"""Returns the NORMALIZED label (set of parameter values) of an image."""
parts = tf.strings.split(image_path, os.path.sep)
filename = parts[-1]  # Extract filename with extension
filename = tf.strings.split(filename, ".")[0].name  # Extract filename
param_data = param_data_file[filename]  # ERROR! .name above doesn't seem to return just the filename
P = len(param_max_min_file)
label = np.zeros(P)
i = 0
while i < P:
param = param_max_min_file[i]
umin = param["user_min"]
umax = param["user_max"]
sub_index = param["sub_index"]
identifier = param["identifier"]
node = param["node_name"]
value = param_data[node][identifier]
label[i] = _normalize(value[sub_index])
i += 1
return label

我已经验证了path_to_label()中的filename = tf.strings.split(filename, ".")[0]确实返回了正确的张量,但我需要它作为字符串。事实证明,整个事情也很难调试,因为我在调试时无法访问属性(我收到错误说AttributeError: Tensor.name is meaningless when eager execution is enabled.(。

name字段是张量本身的名称,而不是张量的内容。

要执行常规的 python 字典查找,请将解析函数包装在tf.py_func中。

import tensorflow as tf
tf.enable_eager_execution()
d = {"a": 1, "b": 3, "c": 10}
dataset = tf.data.Dataset.from_tensor_slices(["a", "b", "c"])
def parse(s):
return s, d[s]
dataset = dataset.map(lambda s: tf.py_func(parse, [s], (tf.string, tf.int64)))
for element in dataset:
print(element[1].numpy()) # prints 1, 3, 10

最新更新