Non-iid data and Continual Learning processes in Federated Learning: a long road ahead


???? ???? ???? = ???? ∑ ???? =1 ???? ???? ???? ????



Yüklə 1,96 Mb.
Pdf görüntüsü
səhifə4/31
tarix11.06.2023
ölçüsü1,96 Mb.
#128584
1   2   3   4   5   6   7   8   9   ...   31
1-s2.0-S1566253522000884-main

𝐰
𝑟
𝐺
=
𝑁

𝑖
=1
𝑀
𝑖
𝑀
𝐰
𝑟
𝑖
,
where 𝑀 is the total number of data instances at each round, and 𝑀
𝑖
is
the number of instances from client 𝑖. After that, a new training round
starts, a random subset of clients is selected and the updated model is
sent back to those clients.
It is important to notice that most of the works in the literature
perform supervised FL, although there are existing works that consider
unsupervised settings [
12
,
13
]. These works focus on clustering and
speech enhancement respectively. In [
12
], clustering is made minimiz-
ing the euclidean distance of the data samples to their corresponding
centroid, employing sophisticated techniques such as self-organizing
maps to determine the appropriate weights for the weighted mean. On
the other hand, [
13
] develops a method for training a model for speech
enhancement using unlabelled data and assuming heterogeneous data
distributions across the clients. The case of reinforcement learning has
been little studied so far, and there is not a significant volume of
works in that area. Consequently, in this review we will only consider
supervised and unsupervised strategies.
Another key point in the federated setting is privacy and data
security. The distributed spirit of this framework enhances the possi-
bility of training a shared model without actually sharing any piece
of information. This is not only desirable but also mandatory. In fact,
over the last few years, several governments around the world have
implemented data privacy legislation to protect consumers, limiting
their data sending and storage only to what is consented by them, and
absolutely necessary for processing. Some examples of this are the Eu-
ropean Commission’s General Data Protection Regulation (GDPR) [
14
]
or the Consumer Privacy Bill of Rights in the US [
15
]. In addition, a lot
of research has been done concerning information sensibility and model
threats [
16
]. For instance, guarantees about the lack of information
of the gradient and the neural network weights have been widely
studied to preserve client privacy [
17
]. Even so, the general thought
is the Federated Learning framework alone is not enough to keep data
privacy [
18
], and for this reason there are different strategies to obscure
the information, such as Homomorphic Encryption [
19
,
20
], Differential
Privacy [
21
,
22
] or Secure Multi-Party Computation [
23
,
24
].
However, the training framework we just presented is very recent
and innovative, hence presents some challenges that have not been
fully addressed yet. For instance, participants selected to train may
drop out, or be incapable of performing a local update for the model,
due to factors like poor connection or lack of battery. To avoid these
issues, there are two options. On the one hand, there are some specific
strategies, named Asynchronous FL [
25

27
], designed to deal with
these inconveniences. Devices that check in to the server are required
to be plugged in, on a proper connection, and idle, in order to avoid
impacting the user of the device. Concerning the convergence of the
algorithm, the federated framework presents some shortages. There are
no guarantees that training a model under limited communications
between local devices and the central server and little computation
resources in the devices would lead to a successful result. In fact,
there are studies that expose the possible problem of having adversarial
Yüklə 1,96 Mb.

Dostları ilə paylaş:
1   2   3   4   5   6   7   8   9   ...   31




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©www.azkurs.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin