Resumé |
Cette thèse présente de nouveaux algorithmes quantiques pour l'apprentissage automatique. L'ordinateur quantique permet un nouveau paradigme de calcul qui exploite les lois de la mécanique quantique pour offrir une accélération des calculs par rapport aux ordinateurs classiques. Récemment, la communauté scientifique a produit plusieurs algorithmes quantiques liés la résolution de problèmes d'algèbre linéaire. Puisqu'une grande partie de l'apprentissage automatique se réduit à multiplier des matrices ou à les inverser, il est possible d'obtenir dans certains cas une version quantique de nombreux algorithmes en lien avec l'apprentissage automatique. Malgré tout, l'écriture d'un nouvel algorithme quantique n'est en général pas du tout une tâche aisée. Dans cette thèse, je propose des algorithmes quantiques pour l'apprentissage de certains modèles d'apprentissage classique. Les algorithmes conçus et analysés dans cette thèse sont les suivants : Slow Feature Analysis, un algorithme de réduction de dimension utilisé pour éviter phénomène d'overfitting dans le cadre de l'apprentissage supervisionné. Dans le cadre de l'apprentissage non supervisé, une version quantique de l'algorithme de clustering k-means et sa généralisation dans le model Gaussian Mixture Models. Ces algorithmes sont itératifs, et représentent la contrepartie quantique de l'algorithmique classique Expectation-Maximization très répandu. Spectral Sum, un algorithme calculant des quantités liées à la somme des valeurs singulières d'un matrice, et ses applications. Les nouveaux algorithmes quantiques développés ont été implémentés et simulés sur des ordinateurs classiques à base d'HPC, avec les jeux de donnés couramment utilisés pour l'apprentissage automatique classique. Je démontre ainsi que ces algorithmes ont effectivement le potentiel de concourir contre les meilleurs algorithmes classiques pour l'analyse de donnés. |