Python and ebcdic decoding (zos 1047)



我有一个函数应该接收十六进制EBCDIC格式的数据并将其转换为ASCII。

例如,转换数据,F1F1F0F0应该给我一个1100的ASCII,或31313030的十六进制ASCII。

我发现的是:

    def __decode_ASC_EBCDIC_DT(self, data):
    if (data[0] == '3'):
        #HEX ASCII
        dt_ = ''.join(chr(int(data[i:i + 2], 16)) for i in range(0, len(data), 2))
        return dt_
    elif (data[0] == 'F'):
        #HEX EBCDIC
        try:
            tmp  = bytearray(ord(c) for c in data)
            dt_ = ''.join(tmp.decode('cp500'))
        except:
            print('can't convert:' + data)
        return dt_

但似乎CP500正在'ãããã'中转换我的数据,在这种情况下这是不正确的。(tmp是正确的bytearray(b' f1f1f0f0 '))

有什么想法吗,或者我应该为EBCDIC制作自己的字典吗?

bytearray(b' f1f1f0f0 ')不是你想的那样。它是ASCII字符串'F1F1F0F0'的字节表示形式。

>>input = bytearray(b'F1F1F0F0')
>>> for item in input:  print(item)
70
49
70
49
70
48
70
48

从EBCDIC的角度来看,您传入的内容是无意义的:EBCDIC 48, 49和70是未定义的,因此codecs.decode将给出无意义的输出。

我不确定您从哪里获得输入,但如果您想将EBCDIC字符串转换为ascii,您可以这样做:

>>> input=bytearray([241, 241, 240, 240])
>>> for item in input: print(item)
241
241
240
240
>>> import codecs
>>> codecs.decode(input, 'cp500')
'1100'

上面代码中的错误是输入应该被视为十六进制(感谢Kevin指出这一点)。

更正后的代码:

    def __decode_ASC_EBCDIC_DT(self, data):
if (data[0] == '3'):
    #HEX ASCII
    dt_ = ''.join(chr(int(data[i:i + 2], 16)) for i in range(0, len(data), 2))
    return dt_
elif (data[0] == 'F'):
    #HEX EBCDIC
    try:
        dt_ = ''.join(bytearray.fromhex(data).decode('cp500'))
    except:
        print('can't convert:' + data)
    return dt_

最新更新