Google ondersteunt het bouwen van AI-modellen die privacy respecteren
Google heeft een reeks nieuwe bibliotheken uitgebracht voor TensorFlow, zijn openbron framework voor machine learning. Opvallend daarbij is een focus op privacy bij gebruikers.
Techgigant Google lanceert deze week drie nieuwe AI-tools in zijn TensorFlow openbron framework. De opvallendste daaronder laat ontwikkelaars toe om AI-gestuurde apps te bouwen waarbij de gebruikers weinig tot geen data moeten vrijgeven.
TensorFlow Federated moet de privacy respecteren door gebruik te maken van ‘federated learning’, een trainingsysteem voor kunstmatige intelligentie. Zo’n systeem werkt decentraal, en leert dus op basis van gegevens die over verschillende toestellen verdeeld zijn. Op die manier kunnen de gegevens blijven staan op pakweg de smartphone of laptop waarop ze zijn verzameld. Google biedt er alvast een mogelijk antwoord mee op een van de grote privacy-vragen die worden gesteld bij de opkomst van AI. Federated learning is vanuit privacy-opzicht een stap vooruit op de klassieke manier om algoritmes te trainen, waarbij de tool alle gegevens naar een centrale servers stuurt, met alle gevaren voor lekken vandien. Deze federated methode trekt zijn lessen uit gegevens op het toestel zelf, en stuurt alleen de geleerde lessen door, terwijl de data netjes blijft staan.
De technologie wordt al langer door Google gebruikt, en is bijvoorbeeld ingebouwd in de Gboard toetsenbordapp voor Android. Daar analyseert het tikpatronen om nieuwe voorspellingen aan te leren. Bij zo’n toetsenbordalgoritme kan het zo bijvoorbeeld suggesties geven voor woorden, terwijl het van de gebruiker nieuwe woorden of zinsneden leert. Vervolgens worden alleen die nieuwe lessen doorgestuurd in een korte samenvatting.
Nu wordt de software openbron, en kan ze dus ook door andere ontwikkelaars gebruikt worden bij het bouwen van apps. De lancering is er een in een langere reeks AI-tools die de techgigant deze week uitbrengt. Eerder bracht het bedrijf ook al TensorFlow Privacy uit, een bibliotheek voor het machine learning framework die het makkelijker moet maken om AI-modellen op te leren met strikte privacy-garanties. Het gebruikt daarvoor ‘differential privacy’, een systeem dat Apple ook al een tijdje inzet. Het gaat om een statistische techniek die probeert accuraatheid te balanceren met voorzichtigheid rond gegevens van de gebruiker. Het komt er in het kort op neer dat TensorFlow Privacy sneller zeldzame details zal vergeten, zegt Google, zodat je er niets uit kan leren over een specifieke gebruiker.
Tot slot komt deze week ook TensorFlow 2.0 Alpha. Dat is de ‘normale’ release van de openbron machine learning bibliotheek van Google, die makkelijker in gebruik zou moeten zijn dan de vorige versie.
Fout opgemerkt of meer nieuws? Meld het hier