服务器是否可以在FL的一个训练周期中向每个客户端广播最大数量的示例?这是侵犯隐私吗



我正在训练一个FL模型。我每个周期选择5个客户端。我想得到客户和最大数量客户之间的示例差距。在此周期内,服务器是否可以向其他客户端广播5个客户端中的最大示例数?这合法吗?

在TFF中,肯定可以实现广播附加信息。API是tff.federated_broadcast,如果您希望在联邦平均算法中扩展它,则重新使用simple_fedavg实现,它可能会添加到此处附近。

关于某件事是否侵犯了隐私,询问"其他参与者对彼此了解多少?"one_answers"所了解的信息是否应该被视为敏感信息?"可能会很有用。对隐私的一个非常严格的解释可能是"其他参与者什么都没学到"one_answers"所有信息都是敏感的"。

我们可以想象这样一种场景:服务器选择最大数量的示例进行处理,而不是基于来自客户端的任何数据,然后告诉/向每个客户端广播这个数字。服务器或其他参与者似乎不太可能了解到有关单个参与者的信息,也不太可能知道一些敏感的信息,因为该数字不是从客户端数据中得出的。

或者,服务器可能首先了解每个客户端有多少个示例,然后将该数字广播回所有客户端。这无疑是在与所有其他参与者分享一个客户的一些信息。它也可能是敏感的,特别是如果每个客户端都有不同数量的示例,并且该数字现在可能用于唯一标识客户端。

最新更新