La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Unstructured Lumigraph Rendering C.Buehler M.Bosse L.McMillan S.Gortler M.Cohen Rendu par «Lumigraph » non-structuré Présenté par: Ana PAUL Guillaume GENER.

Présentations similaires


Présentation au sujet: "Unstructured Lumigraph Rendering C.Buehler M.Bosse L.McMillan S.Gortler M.Cohen Rendu par «Lumigraph » non-structuré Présenté par: Ana PAUL Guillaume GENER."— Transcription de la présentation:

1 Unstructured Lumigraph Rendering C.Buehler M.Bosse L.McMillan S.Gortler M.Cohen Rendu par «Lumigraph » non-structuré Présenté par: Ana PAUL Guillaume GENER

2 Introduction sur le rendu basé images Introduction sur le rendu basé images Algorithmes précédents Algorithmes précédents Light Field & Lumigraph Light Field & Lumigraph View Dependent Texture Mapping View Dependent Texture Mapping Objectifs Objectifs Algorithme Algorithme Résultats Résultats Unstructured Lumigraph Rendering

3 Reconstruire des images à partir de photos, vidéos, images de synthèse. Reconstruire des images à partir de photos, vidéos, images de synthèse. Peu ou pas dinformations sur la géométrie de la scène. Peu ou pas dinformations sur la géométrie de la scène. Rendu moins coûteux. Rendu moins coûteux. Exemple dapplication: Quick Time VR Exemple dapplication: Quick Time VR Rendu basé images

4 Light Field Rendering Le Light Slab Le Light Slab Echantillonage Echantillonage Avantages Avantages Inconvénients Inconvénients Rendu indépendant de la complexité de la scène. Complexité linéaire: simple rééchantillonnage Taille du lightfield Prise de vues sur un plan

5 Similaire au light Field. Similaire au light Field. Prises de vues échantillonnées irrégulièrement. Prises de vues échantillonnées irrégulièrement. Prise de vues sur une hémisphère. Prise de vues sur une hémisphère. The Lumigraph

6 Exemples

7 Principe : Principe : – –1. Calcul de la visibilité: Pour chaque polygone, liste les images dans lesquelles il est vu. – –2. Combler les trous: Trouver une « texture » pour les polygones qui ne sont jamais vus. – –3. Construction de View Maps: Pour chaque polygone, déterminer limage la meilleure pour chaque angle de vue dune hémisphère. Principe : Principe : – –1. Calcul de la visibilité: Pour chaque polygone, liste les images dans lesquelles il est vu. – –2. Combler les trous: Trouver une « texture » pour les polygones qui ne sont jamais vus. – –3. Construction de View Maps: Pour chaque polygone, déterminer limage la meilleure pour chaque angle de vue dune hémisphère. View Dependent Texture Mapping

8 Avantages : Avantages : –Beaucoup moins dimages nécessaires. –Rendu réaliste. Inconvénients: Inconvénients: –Il faut connaître la géométrie de la scène. –Il faut connaître les informations de chacune des prises de vue. debevec_VDTM.mov

9 Objectifs Utilisation de proxies géométriques Utilisation de proxies géométriques Uniformité épipolaire Uniformité épipolaire Sensibilité de résolution Sensibilité de résolution Entrées déstructurées Entrées déstructurées Uniformité de rayon équivalent Uniformité de rayon équivalent Continuité Continuité Angle de déviation minimal Angle de déviation minimal Temps réel Temps réel

10 Utilisation de proxies géométriques information géométrique = proxy information géométrique = proxy Un seul point considéré Un seul point considéré Suppression de toute caméra ne le «voyant» pas Suppression de toute caméra ne le «voyant» pas

11 Consistance épipolaire Reconstruction triviale du rayon désiré Reconstruction triviale du rayon désiré Pas besoin dinformation géométrique Pas besoin dinformation géométrique

12 Sensibilité de résolution Distance de la caméra par rapport au point Distance de la caméra par rapport au point => flou

13 Entrées déstructurées Positions aléatoires des caméras Positions aléatoires des caméras Rééchantillonnement des image par le processus de rebinning Rééchantillonnement des image par le processus de rebinning

14 Uniformité de rayon équivalent Deux rayons désirés confondus Deux rayons désirés confondus => une seule caméra prise en compte

15 Continuité Couleur similaire pour deux points consécutifs Couleur similaire pour deux points consécutifs Poids plus important selon la distance par rapport au point Poids plus important selon la distance par rapport au point

16 Angle de déviation minimal Poids plus important selon la proximité angulaire du rayon désiré Poids plus important selon la proximité angulaire du rayon désiré

17 Algorithme Entrée : Entrée : –Collection dimages –Position de la caméra Prise en compte des caractéristiques de la caméra Prise en compte des caractéristiques de la caméra –Résolution –Champ de vision –Visibilité

18 Caméra blending field Poids associé à chaque caméra Poids associé à chaque caméra Calculé selon les différentes contraintes Calculé selon les différentes contraintes

19 Les différents champs Deux angles : Deux angles : - angDiff - angThresh

20 Poids pour le blending : Poids pour le blending : Après normalisation :

21 Résolution Soit Soit Ce qui nous permet davoir comme combinaison des poids : Et dobtenir finalement

22 Exemple Sans prendre en compte la résolution En appliquant lalgorithme

23 Champ de vue et visibilité Nouvelle contrainte de poids : Nouvelle contrainte de poids : Après normalisation : Après normalisation :

24 Rendu temps réel Par sélection de point Chaque sommet de la triangulation = une caméra

25 Différentes étapes Chaque triangle = une seule région planaire=> permet le plaquage de texture en hardware Chaque triangle = une seule région planaire=> permet le plaquage de texture en hardware Un sommet pour chaque centre de caméra => consistance épipolaire Un sommet pour chaque centre de caméra => consistance épipolaire Ajout dune grille régulière de sommets dans le plan désiré Ajout dune grille régulière de sommets dans le plan désiré Triangulation du plan Triangulation du plan

26 Rendu effectif: N caméras et N textures associées à un point Rendu indépendant sur chacune => N Images Superposées à laide de transparence N rendus -> 1 pixel

27 Résultats

28 Références Efficient View-Dependent Image-Based Rendering with Projective Texture-Mapping Paul Debevec, Yizhou Yu, and George Borshukov Light Field Rendering Marc Levoy and Pat Hanrahan The Lumigraph Steven J. Gortler Radek Grzeszczuk Richard Szeliski Michael F. Cohen Efficient View-Dependent Image-Based Rendering with Projective Texture-Mapping Paul Debevec, Yizhou Yu, and George Borshukov Light Field Rendering Marc Levoy and Pat Hanrahan The Lumigraph Steven J. Gortler Radek Grzeszczuk Richard Szeliski Michael F. Cohen


Télécharger ppt "Unstructured Lumigraph Rendering C.Buehler M.Bosse L.McMillan S.Gortler M.Cohen Rendu par «Lumigraph » non-structuré Présenté par: Ana PAUL Guillaume GENER."

Présentations similaires


Annonces Google