Published September 29, 2015 | Version v1
Report

Object Classification via Planar Abstraction

Description

We present a supervised machine learning approach for classification of objects from sampled point data. The main idea consists in first abstracting the input object into planar parts at several scales, then discriminate between the different classes of objects solely through features derived from these planar shapes. Abstracting into planar shapes provides a means to both reduce the computational complexity and improve robustness to defects inherent to the acquisition process. Measuring statistical properties and relationships between planar shapes offers invariance to scale and orientation. A random forest is then used for solving the multiclass classification problem. We demonstrate the potential of our approach on a set of indoor objects from the Princeton shape benchmark and on objects acquired from indoor scenes and compare the performance of our method with other point-based shape descriptors.

Abstract (French)

Nous introduisons une approche par apprentissage supervisée pour classifier des objetsà partir de points échantillonnés dans l'espace. L'idée principale consiste à approximer l'objet initialen parties planaires à différentes échelles, pour ensuite distinguer les différentes classes d'objets sanstenir compte des points échantillonnées. L'abstraction en formes planaires est un moyen à la fois deréduire la complexité algorithmique de l'analyse, et d'améliorer la robustesse aux défauts de mesuresdans le processus d'acquisition des données. Mesurer des propriétés statistiques et des relations entreformes planaires offre une invariance à l'échelle et à l'orientation. L'algorithme Random Forest estutilisé pour résoudre le problème de classification multi-classe. Nous démontrons le potentiel de notreapproche sur un ensemble d'objet de scène d'intérieur en utilisant plusieurs benchmarks et en comparantles performances avec des méthodes basées sur des descripteurs locaux de points.

Additional details

Created:
March 25, 2023
Modified:
November 30, 2023