Fortschritte bei künstlicher Intelligenz und maschinellem Lernen wurden teilweise durch die umfangreichen Datenmengen erreicht, die zum Trainieren von Systemen der künstlichen Intelligenz verwendet werden. Die meisten Daten müssen geschützt werden. Um sicherzustellen, dass Gesundheits- und Verhaltensdaten bei KI- und Machine-Learning-Projekten nicht in die falschen Hände geraten, haben Wissenschaftler das Konzept der differenziellen Privatsphäre entwickelt.
Wissenschaftler garantieren, dass das veröffentlichte Modell oder Ergebnis nur begrenzte Informationen über jede betroffene Person liefern kann. Während frühere Methoden eine Partei mit uneingeschränktem Zugriff auf alle Daten erforderten, ermöglicht die neue Methode das Erlernen genauer Modelle, beispielsweise anhand von Daten auf Benutzergeräten, ohne dass private Informationen an Außenstehende weitergegeben werden müssen.
Die Forschergruppe der Universität Helsinki und der Aalto-Universität, Finnland, hat datenschutzbewusste Methoden angewendet, um beispielsweise die Wirksamkeit von Krebsmedikamenten mithilfe von Genexpression vorherzusagen.
„Wir haben diese Methoden seit einigen Jahren mit Mitteln der Academy of Finland entwickelt, und jetzt sieht es vielversprechend aus. Aus Big Data zu lernen ist einfacher, aber jetzt können wir auch Ergebnisse aus kleineren Daten gewinnen“, sagt Academy-Professor Samuel Kaski von der Aalto University.