Adimen artifiziala Pribatutasuna zaintzea
Our technology unlocks the full potential of data and AI while preserving privacy as data is never compromised.
“Federated Learning accelerates model development while protecting privacy.”
“Federated Learning: A managed process for combining models trained separately on separate data sets that can be used for sharing intelligence between devices, systems, or firms to overcome privacy, bandwidth, or computational limits.“
While Federated Learning is a nascent technology, it is highly promising and can enable companies to realize transformative strategic business benefits. "FL is expected to make significant strides forward and transform enterprise business outcomes responsibly.”
“Federated Learning: AI's new weapon to ensure privacy.”
“Federated Learning allows AI algorithms to travel and train on distributed data that is retained by contributors. This technique has been used to train machine-learning algorithms to detect cancer in images that are retained in the databases of various hospital systems without revealing sensitive patient data.”
Ikaskuntza
federatua
Ikaskuntza federatua Ikaskuntza automatikoko paradigma bat da, eta sistema edo nodo ezberdinetan banatutako datuekin (adibidez, telefonoetan, ospitaleetan edo bankuetan kokatutako datuak) ereduak trebatzeko aukera ematen du, datuen pribatutasuna bermatuz.
Hori lortzen da nodo bakoitzean tokian tokiko ereduak trebatzen (adibidez, ospitale bakoitzean, banku bakoitzean edo telefono mugikor bakoitzean) eta ereduaren parametro eguneratuak soilik partekatuz eta modu seguruan bateratuz eredu global hobea eraikitzeko (datuak ez dira inoiz irteten). nodoa eta, beraz, ez da inoiz partekatzen).
Urte askotako ikerketaren ondoren, Sherpa.ai-k datuen pribatutasunari buruzko ikaskuntza-plataformarik aurreratuena garatu du, pribatutasuna hobetzeko teknologia osagarriak barneratuz (adibidez, pribatutasun diferentziala, enkriptazio homomorfoa, zati anitzeko konputazio segurua).
IRTENBIDE TRADIZIONALA

- Pribatutasuna urratzeko arrisku handiagoa.
- Ez du araudia betetzen.
- Datuen kontrola galtzen da zerbitzaritik irtetean.
- Eraso azalera handia.
IRTENBIDE TRADIZIONALA

- Lankidetza-ereduen potentziala maximizatzen du datu pribatuak partekatu gabe.
- Privacy by design.
- Araugintza betetzea: datuak ez dira inoiz inplikatutako alderdien zerbitzaritik irteten.
- Pribatutasun-urraketa arriskua murriztea. Eraso-azalera murrizten da.
- Ereduak nola entrenatzen diren eta datuak nola erabiltzen diren buruzko gardentasuna.
NOIZ ERABILTZEN DIO IKASKUNTZA FEDERATUAK EREDUKO PRESTAKUNTZATIK?
Ikaskuntza federatua eten egiten du datuen pribatutasuna derrigorrezkoa den kasuetan, datuak partekatu behar ez direlako.
Datuek informazio konfidentziala edo sentikorra dutenean hala nola, osasun-informazioa babestua, finantza-erregistroak edo pertsona identifikatzen duen beste edozein informazio pribatu.
When data can’t be used or shared for regulatory reasons. This is common in heavily regulated sectors like Financial Services or Healthcare.
However, a better use of data available would make a huge impact to improve processes or solve major challenges like rare diseases.
When different organizations want to take advantage of their data without sharing it.
For example, two competitive organizations could solve a common problem through collaborative model training, but they are not willing to share proprietary data with each other for competitive reasons. Federated Learning enables collaborative model training without sharing data.
FEDERATED LEARNING GENERATIONS

DATU HETEROGENEOTAN TREBATZEKO ERRONKA
In Horizontal Federated Learning the data is homogeneous. This means that the different data sets share the same features but differ in sample size. Therefore, the same model can be shared between the parties, and it is trained collaboratively.
Mundu errealeko eszenatoki gehienetan, hori ez da horrela; izan ere, nodo ezberdinek normalean datu heterogeneoak edukiko lituzkete, hau da, datuek ezaugarrietan desberdinak izaten dituzte.
Sherpa.ai allows heterogeneous data training since Vertical Federated Learning and Federated Transfer Learning are integrated in the platform.
IKASKUNTZA PARADIGMA FEDERATUAK
IKASKUNTZA FEDERATU HORIZONTALA

Horizontal FL, it is the approach used when the data sets share the same feature space but differ in sample size. It’s used when an organization had consistent data across many locations but couldn’t for legal reason move or transfer it.
In Horizontal Federated Learning the same model can be used to train with the different data sets.
Use cases: Horizontal FL would be used in diagnosis of disease, when there isn’t enough training data in one organization and different parties are required to collaborate to develop as sufficiently accurate model.
KASKUNTZA FEDERATU BERTIKALA

Vertical FL allows two parties to take advantage of each other's data without sharing it. In this case, both parties leverage the customers, users, or data entities they have in common. A use case could involve a telco and a bank, where an algorithm is trained using data from both organizations without sharing it, to improve business processes, like fraud detection or defaulter’s prediction among others.
Use cases: A use case could involve a telco and a bank, where an algorithm is trained using data from both organizations without sharing it, to improve business processes, like fraud detection or defaulter’s prediction among others.
IKASKUNTZA TRANSFERENTZIA FEDERATUA

Transfer FL is used when two parties want to take advantage of each other’s data but have very few common customers or data entities. Transfer FL learns from the small common sample size and then selects additional common data entities which fit the common feature space and allows model to learn from them. Transfer FL is used in similar application areas to Vertical FL, where common users are very limited.
Use cases: Two insurance companies could improve fraud detection, training models through federated learning, so that both companies would have a highly accurate predictive algorithm, but they would not share their business data with the other party.

TWO-LAYER PRIVACY AND SECURITY SYSTEM
- Sherpa.ai has developed a two-layer privacy and security system:
- Federated Learning - Data is never shared, only parameter updates.
- Other Privacy-Enhancing Technologies (PETs) integrated - Differential Privacy (DP) at all levels, from data, parameter, and aggregator, Secure Multi-party Computation, Homomorphic Encryption, Zero Knowledge Trust among others.
- The combination of these two principles creates a two-layer privacy and security system as data is never shared but also parameter updates are protected through different Privacy-Enhancing Technologies

DATA IS NEVER SHARED
FEDERATED LEARNING
Sherpa.ai privacy-by-design platform ensures that data is never exposed.
Sherpa.ai’s Federated Learning enables AI model training without sharing data.
Only parameter updates are shared, and neither the orchestrator nor a single node can access data stored in another node.
PARAMETERS ARE PROTECTED
PRIVACY-ENCHANCING TECNOLOGIES (PETs)
Federated Learning is not enough. Therefore Sherpa.ai has developed a platform that incorporates complementary Privacy-Enhancing Technologies (Differential Privacy, Secure Multi-party Computation or Homomorphic Encryption among others) to ensure robustness of the platform.
Sherpa.ai's platform has revolutionary potential for heavily regulated sectors like Healthcare or Financial Services, where privacy as well as regulatory compliance are essential. By adding complementary technologies to ensure privacy is maintained, Sherpa.ai unlocks new scenarios of development and collaboration between organizations.
PRIBATUTASUNA ZAINTZEKO TEKNOLOGIAK
(PETs)
Ikaskuntza federatua ez da nahikoa. Horregatik, Sherpa.aik pribatutasuna hobetzeko teknologia osagarriak (pribatutasun diferentziala, alderdi anitzeko konputazio segurua edo enkriptazio homomorfoa, besteak beste) barne hartzen dituen plataforma garatu du, plataformaren sendotasuna bermatzeko.
Sherpa.ai-ren plataformak jokoak aldatzeko ahalmena du oso araututa dauden industrietarako, hala nola osasun-zerbitzuak edo finantza-zerbitzuak, non pribatutasuna eta betetzea ezinbestekoak diren. Pribatutasuna bermatzeko teknologia osagarriak gehituz, Sherpa.aik erakundeen arteko garapen eta lankidetzarako eszenatoki berriak irekitzen ditu.
PRIBATUTASUN DIFERENTZIALA
Pribatutasun diferentziala datuen agregazioak emateko teknika estatistiko bat da, datu-erregistro indibidualen ihesak saihestuz. Teknika honek bermatzen du tokiko parametroen komunikazioan parte hartzen duten eragile gaiztoek ezin dutela informazio hori datu-iturrietara itzuli, datuen pribatutasun-geruza gehigarri bat gehituz.
PRIBATUTASUN DIFERENTZIA GUZTIAREN GAINEKO
Datuen mailan pribatutasun diferentziala da inplementaziorik ohikoena eta mugatzaileena. Ez du zehaztasunaren eta pribatutasunaren arteko oreka ona ematen, eta horrek ereduen prestakuntza oso konplexua egiten du, ezinezkoa ez bada.
Sherpa.ai-ren pribatutasun-ikuspegi diferentzialak zehaztasunaren eta pribatutasunaren arteko punta-puntako konpromiso enpirikoa eskaintzen du. Pribatutasun Diferentziala erabiliz, jatorrizko informazioa zarata kontrolatu eta moldagarriarekin ezkutatuz daturik ezin dela lortu ziurtatzen dugu, algoritmo iragarlearen errendimendua mantenduz. Horrek aktore gaiztoek bezeroen datuak lortzea, jarraipena edo ondorioztatzea eragozten dute, baita alderantzizko ingeniaritza tekniken bidez ere.

GAINERATU MAILAN
Sherpa.ai-k bakarrik gehitu dezake zarata agregazio mailan ereduaren zehaztasuna murriztu gabe.
MODELO PARAMETRO MAILAN
Zarata parametro mailan gehi daiteke, agregazio mailan zarata deuseztatze partziala sortuz. Sherpa.ai-ren sentsibilitatea kalkulatzeko mekanismo aurreratuak datuen tokiko azterketa zehatza dakar, aplikatu beharreko zarata maila optimoa doitzeko.
DATU MAILAN
Ezarpen ohikoena eta mugatzaileena. Ez du zehaztasunaren eta pribatutasunaren arteko oreka ona eskaintzen, ereduen prestakuntza oso konplexua edo ezinezkoa bihurtzen du eta datuen izaera kaltetzen du.
BLIND LEARNING (Proprietary Privacy-Enhancing Technology)
A challenge in the standard Vertical Federated Learning is to reduce the huge number of communications in a distributed scenario
Blind Learning is a fundamental functionality for Federated Learning for heterogeneous data.
With Blind Learning the number of communications are reduced by over 99%, with the following benefits:
- Lower costs
- Lower risk of data breaches which massively improves security and privacy
- Lower energy consumption and carbon footprint
ZIFIKAZIO HOMOMORFIKOA
Enkriptatze homomorfoa enkriptazio-eskema klase zehatz bat da, erabiltzaileei datuen gaineko eragiketa batzuk egiteko aukera ematen diena datuak enkriptatutako egoeran dauden bitartean.
Homomorfoa aljebra aurreratuko terminoa da, testu arruntaren eta datu enkriptatuen arteko egitura zaintzeko erlazioari buruz hitz egiten duena. Datu/testu zifratuaren konputazioaren emaitzak datu/testu argiaren berdinak direnez, funtzio hauek homomorfismotzat har daitezke.
Sherpa.ai-ren enkriptazio homomorfoarekin, hodeian kalkulu batzuk egin daitezke datuak erabiliz, baina pribatua mantenduz. HE erabiliz, zure datuen enkriptatutako bertsioa hodeira bidal dezakezu, bertan kalkulua egin eta gero deszifratu dezakezun emaitza enkriptatua berreskura dezakezu. Urrats hauek guztiek ez dute bezeroak konektatuta egon behar. (HE onura). Beraz, HEri buruzko ideia nagusiak hauek dira: Parametroen agregazioan erabiltzen da. Abantaila nagusiak dira agregazio hau enkriptatutako parametroak erabiliz egiten dela eta komunikazio kopurua oso txikia dela beste defentsa teknikekin alderatuta.

ALDERDI ANITZEKO INFORMAZIO SEGURUA
Secure Multi-Party Computation (SMPC) kriptografiaren azpiesparru bat da, alderdiek beren sarreretan funtzio bat elkarrekin kalkulatzeko metodoak sortzeko helburuarekin, sarrera horiek pribatuak mantenduz.
Zeregin kriptografiko tradizionalen ez bezala, non kriptografiak komunikazioaren edo biltegiratzearen segurtasuna eta osotasuna bermatzen baitu eta aurkaria parte-hartzaileen sistematik kanpo dagoen (igorlearen eta hartzailearen espioi bat), eredu honetako kriptografiak parte-hartzaileen pribatutasuna babesten du elkarrengandik, askoz zailagoa da parte-hartzaileak usteltzea.
Sherpa.ai-k iturri ezberdinetako datuen konputazioa banatzen duen protokolo kriptografiko bat garatu du, inork besteen datuak ikusi ezin dituela ziurtatzeko, hirugarren batengan fidatu beharrik gabe.
Hori eginez gero, zure konpainiaren datu sentikorrak babestuta daudela ziurtatzen duzu, datu horietatik beharrezko informazio guztia eskuratzeko duzun gaitasuna kaltetu gabe.

ENTITATE PRIBATUEN EBAZPENA
Datu multzoak hainbat erakundetan banatzen direnean, dagozkien entitateak identifikatzea arazo bihurtzen da.
Punta-puntako teknika kriptografikoak erabiliz, datu multzo horien sinkronizazioa eta identifikazioa posible da pribatutasuna babesten eta trebatutako ereduen zehaztasuna mantenduz.
Private Set Intersection (PSI) zati guztietako laginen elkargunea zehazten du. Lerrokatzen ditu enkriptatutako/zifratutako identifikatzaileak alderatuz (adibidez, izen-abizenak, nortasun agiriaren zenbakia... edo hainbat identifikatzaileren konbinazioa). Gure puntako teknologia, n-gramen bereizketan oinarrituta, identifikatzaileetako akats tipografikoak gaindi ditzake. Hala ere, PSIk elkarguneen identifikatzaileak ikusarazten ditu alderdi guztientzat, eta hori arazoa izan daiteke kasu batzuetan. PSI-k mundu errealeko eszenatoki gehienetan debekatuta dagoen elkargune-kidetasuna agerian uzten du.
Private Set Union (PSU) alderdi bakoitzak informazio sentikorra beretzat gordetzeko aukera ematen dio. PSUk ez ditu elkarguneko kideen berri ematen.
ZERO EZAGUTZA FROGA
Zero-Knowledge Proof (ZKP) informazio zehatza beste alderdi bati egiaztatzea ahalbidetzen duen enkriptazio metodo bat da, informazioa bera agerian utzi gabe.
ZKP datu-multzo pribatuen elkargunearen (PSI) inferentzia erasoen aurkako defentsan aplikatzen da. PSI-rekin, bi erakundek enkriptatutako datuen elkargunea kalkulatu dezakete, partekatu gabe. Ez da edukirik agertzen elkargunearen parte diren elementuak izan ezik.
BESTE TEKNOLOGIA INTEGRATU BATZUK
PERTSONALIZAZIOA
Sherpa.ai-k datu alboratuaren arazoa modu pertsonalizatuan jorratzen du eta bezero bakoitzaren berezitasunera ezin hobeto egokitzen da ikaskuntza globala gorde eta ezagutza norbanako bakoitzari egokitzen dioten teknika berritzaileak erabiliz. Hau ikasketa txanda bakoitzean gailuaren galera-funtzioak dinamikoki aldatuz lortzen da, ondoriozko eredua edozein erabiltzailerekin alboratuta egon dadin.

DATU SINTETIKOAK SORTZEA
Datu sintetikoak datuen pribatutasuna babesteko modu gisa balio du. Askotan, benetako datuek erabiltzailearen informazio pribatua eta sentikorra dute, libreki partekatu ezin dena. Pribatutasun hori gordetzeko, ikuspegi desberdinak hartzen dira, eta askotan datuen hutsunea eragiten dute, informazio eta erabilgarritasun orokorra galtzea eragiten dutenak.
Sherpa.ai-ren teknologiak datu sintetiko aurreratuen sorkuntza erabiltzen du segurtasun hutsuneak ezabatzeko, hala nola kidetasuna. Irtenbide ez-konbentzional honekin, metodo estandarrak erabiltzetik aldentzeko gaitasuna lortzen duzu, komunikazio-kostuak asko murriztuz, aurreikuspen-ereduaren zehaztasuna urritu gabe. Honek azpiko egitura lortzeko eta jatorrizko datuen banaketa estatistiko berdina bistaratzeko gaitasuna sortzen du, gauza errealetik bereiztezina izan daitezen.

KONTRAKO ERASOEN
AURKAKO DEFENTSAK
Irtenbide teknikoak garatu dira AI-ren ahultasun espezifikoak konpontzeko entrenamendu-datu multzoa manipulatzen saiatzen diren erasoak prebenitzeko eta kontrolatzeko, ereduak errore bat eragiteko diseinatutako sarrerak edo ereduaren hutsegiteak.
PRIBATUTASUNAREN/INFERENTZIAREN ERASOEN AURKAKO DEFENTSA
Ikasketa eredu federatuak, saihesten ez badira, iragarpen okerrak ematen engainatu daitezke eta nahi den emaitza eman dezakete. Emaitza okerra lortzeko sarrera bat modu zehatz batean diseinatzeko prozesua aurkako erasoa da. Eraso hauek prestakuntza-datuetatik informazioa ondorioztatzea dute helburu.
DATU ERASOEN
AURKAKO DEFENTSA
Irtenbide teknikoak garatu dira AI-ren ahultasun espezifikoak konpontzeko entrenamendu-datu multzoa manipulatzen saiatzen diren erasoak prebenitzeko eta kontrolatzeko, ereduak errore bat eragiteko diseinatutako sarrerak edo ereduaren hutsegiteak.
Defentsa bat asegarria den egiaztatzeko modurik onena eraso mota ezberdinekin probatzea da. Hori dela eta, eraso sorta zabala diseinatu da ereduak guztiz pribatuak direla egiaztatzeko.

KIDE ERASOEN
AURKAKO DEFENTSA
Kideen inferentzia erasoek pribatutasunaren babesari kalte egiten dioten filtrazioak sortzen dituzte. Sherpa.ai-k Pribatutasun Diferentzialaren ahalmenari esker, datuen identitatea babesteko gai diren defentsa ereduak garatu dira. Hori dela eta, ezabatu egin dira ikaskuntza-eredu bat entrenatzeko erabilitako datuen jabea noren jabea den inferentzia erasoak.
Uneoro antolaketa-eskakizunak betez eta datuen pribatutasuna bermatuz, indarrean dagoen legediaren arabera..

POZOIZUN ERASOEN AURKAKO DEFENTSA
Pozoitze-erasoek prestakuntza-eredu globala arriskuan jartzea dute helburu. Hemen, erabiltzaile gaiztoek prestakuntza-datu faltsuak injektatzen dituzte ikasitako eredua hondatzeko helburuarekin, eta, horrela, ereduaren errendimenduan eta zehaztasunean eragingo dute.
BIZANTINOKO ERASOEN
AURKAKO DEFENTSA
Bizantziar erasoek ereduaren errendimenduari kalte egiten diote, oro har, eta kaltetu egiten dute akastuna izan arte. Hori dela eta, funtsezkoa da ikaskuntza eredu federatuak akats horiei erresistenteak egitea, non datuak kapritxoz jokatzen duten.
Sherpa.ai-ren mekanismo aurreratuekin, eredu federatuaren defentsa bermatzen da ereduaren errendimendua murriztea helburu duten eraso maltzurren aurka. Beraz, babesa portaera anormala duten bezeroen identifikazioan oinarritzen da, agregazio-prozesuan parte hartu ez dezaten.

ATZEKO ATEEN ERASOEN
AURKAKO DEFENTSA
Eraso hauen helburua eredu globalari bigarren mailako zeregin bat ezkutuan sartzea da. Horrek bezero aurkariek bikoitza erasotzea eragiten du, eta, beraz, ikaskuntza-ereduaren eguneraketak desberdinak dira eguneratzeetatik bezero ez-maltzurrenetara.
Atzeko ateko erasoak gainditzeko gai diren aurrekaririk gabeko algoritmoak ezarri dira. Teknologia honekin, bere modeloen errendimendua eta segurtasuna areagotzea lortzen da.

NOLA KONPARATZEN DA
SHERPA.AI BESTE IRTENBIDEEKIN?
Sherpa.ai lehiakide diren beste teknologia batzuekin alderatzen da. Taula bat osatu dugu Sherpa.ai merkatuko beste irtenbide batzuekin nola alderatzen den ulertzen laguntzeko.

JARRI HARREMANETAN SHERPA.AI-REKIN
Maximize the value of data and AI with Sherpa.ai’s Privacy-Enhancing solutions
Kontaktua
QUOTES
FROM OUR TEAM
Sherpa.ai-ren datu pribatutasuna duen Inteligentzia Artifizialaren plataformarako algoritmoen ezarpenean maila gorenetara iritsi gara, matematika aplikatuko metodologia aurreratuenekin
Enrique Zuazua, Ph.D.
Senior Associate Researcher in Algorithms of Sherpa.ai
Sherpa adimen artifizialeko irtenbideak eraikitzeko modua gidatzen ari da, erabiltzailearen pribatutasuna modu guztietan zainduz
Tom Gruber
Chief AI Strategy Officer at Sherpa.ai