Où en sommes-nous ?
3 participants
Page 1 sur 1
Où en sommes-nous ?
Bonjour,
Suite à votre mail, voici où nous en sommes.
Nous avons commencer le cahier des charges ainsi qu'une première application permettant de visionner une image 2D.
Nous avons créer deux groupes chacun travaillant sur une modification précise de l'image; un groupe travaille sur le flou et un autre groupe sur la reconstruction du cerveau sur la zone noire due au nerf optique.
En 3ème partie nous nous attaquerons à la déformation de l'image.
Nous sommes également toujours dans une phase d'apprentissage d'open scene graph, même si nous avons déjà appris beaucoup de choses.
Suite à votre mail, voici où nous en sommes.
Nous avons commencer le cahier des charges ainsi qu'une première application permettant de visionner une image 2D.
Nous avons créer deux groupes chacun travaillant sur une modification précise de l'image; un groupe travaille sur le flou et un autre groupe sur la reconstruction du cerveau sur la zone noire due au nerf optique.
En 3ème partie nous nous attaquerons à la déformation de l'image.
Nous sommes également toujours dans une phase d'apprentissage d'open scene graph, même si nous avons déjà appris beaucoup de choses.
Re: Où en sommes-nous ?
Merci pour le topo.
Quelques broutilles :
1/ Profondeur de champ :
A propos de la gestion du flou, une doc intéressante (avec un peu de théorie) mais vous n'aurez peut-être pas le temps de l'implémenter) :
http://ati.amd.com/developer/gdc/Scheuermann_DepthOfField.pdf
2/ Zone aveugle : vous moyennez du cercle entourant la tâche aveugle vers l'intérieur ?
3/ Champ de vision/Projection non parallèle : plein d'expérimentation à prévoir :-) Ni parallèle ni sphérique, ou est le bon dosage ? WxWigets sera utile pour contrôler la vue 3D.
4/ Une fois le choix de la bonne projection fait, j'ai l'impression qu'il ne faudra pas négliger un temps de recherche pour être capable de gérer les "cônes" de vision (couleur/contraste/...) projetés en 2D sur le rendu final ? A voir.
Sylvain
Quelques broutilles :
1/ Profondeur de champ :
A propos de la gestion du flou, une doc intéressante (avec un peu de théorie) mais vous n'aurez peut-être pas le temps de l'implémenter) :
http://ati.amd.com/developer/gdc/Scheuermann_DepthOfField.pdf
2/ Zone aveugle : vous moyennez du cercle entourant la tâche aveugle vers l'intérieur ?
3/ Champ de vision/Projection non parallèle : plein d'expérimentation à prévoir :-) Ni parallèle ni sphérique, ou est le bon dosage ? WxWigets sera utile pour contrôler la vue 3D.
4/ Une fois le choix de la bonne projection fait, j'ai l'impression qu'il ne faudra pas négliger un temps de recherche pour être capable de gérer les "cônes" de vision (couleur/contraste/...) projetés en 2D sur le rendu final ? A voir.
Sylvain
Re: Où en sommes-nous ?
La présentation d'ATI ci-dessus mais en plus technique :
http://ati.amd.com/developer/shaderx/ShaderX2_Real-TimeDepthOfFieldSimulation.pdf
Ca parle de qualité de Bokeh (http://fr.wikipedia.org/wiki/Bokeh), super intéressant, mais peut-être trop long à faire pour la TER. A garder si tout le reste marche ? :-)
(bon OK j'arrête d'abuser de google)
http://ati.amd.com/developer/shaderx/ShaderX2_Real-TimeDepthOfFieldSimulation.pdf
Ca parle de qualité de Bokeh (http://fr.wikipedia.org/wiki/Bokeh), super intéressant, mais peut-être trop long à faire pour la TER. A garder si tout le reste marche ? :-)
(bon OK j'arrête d'abuser de google)
Re: Où en sommes-nous ?
sylvain_marie a écrit:
2/ Zone aveugle : vous moyennez du cercle entourant la tâche aveugle vers l'intérieur ?
Oui, c'est ce que nous aimerions faire en effet. Il faudrait que nous arrivions à faire ceci, tout en évitant une grosse tâche au centre.
Mickaël
Dépendances des activités
La position (x et y dans la fenêtre OpenGL) et la taille (rayon) de la tâche aveugle dépendra de la projection utilisée et du champ de vision. L'item 4 du diagramme de GANTT dépend donc des items 6, 10 et 11 ?
Sylvain- Invité
Dépendance des activités & Cahier des Charges
Sylvain a écrit:La position (x et y dans la fenêtre OpenGL) et la taille (rayon) de la tâche aveugle dépendra de la projection utilisée et du champ de vision. L'item 4 du diagramme de GANTT dépend donc des items 6, 10 et 11 ?
En effet, nous n'y avions pas pensé lorsque nous avons fait le diagramme.
Nous ferons donc cette mise à jour dans la soirée.
Si vous avez regarder le cahier des charges, auriez-vous d'autres remarques, améliorations à nous suggérer ?
Re: Où en sommes-nous ?
Juste un détail : en page 4, la tâche aveugle n'est pas au centre (optique) de la rétine, elle est excentrée. Sinon c'est tout bonMickael a écrit:Si vous avez regarder le cahier des charges, auriez-vous d'autres remarques, améliorations à nous suggérer ?
Re: Où en sommes-nous ?
Bonjour,
Nous sommes face à un problème technique avec osg. Peut-être votre aide pourrait débloquer la situation.
L'idée de base est de récupérer une zone de pixels et les couleurs (dans une matrice).
Pour faire la tache de mariotte (par exemple), une idée serait de faire un rendu sur texture de la zone, downsampler la texture pour arriver à un pixel de couleur moyenne, et dessiner la zone avec ce pixel (plus ou moins).
Pour cela: nous avons choisi et essayé de passer par le GPU. Nous pensons qu'il nous faut utiliser les Frame Buffer Objects pour le rendu sur texture mais nous ne trouvons pas de tutoriels ou d'exemples assez concrets permettant de nous guider suffisament pour réaliser cela.
Si vous avez une méthodologie avec osg efficace pour réaliser tout cela, nous sommes preneurs.
En terme non technique, nous voulons récupérer une zone de la scène dans une matrice de pixels, et pouvoir réécrire dessus!
N'hésitez pas si vous avez des questions.
Merci par avance.
Nous sommes face à un problème technique avec osg. Peut-être votre aide pourrait débloquer la situation.
L'idée de base est de récupérer une zone de pixels et les couleurs (dans une matrice).
Pour faire la tache de mariotte (par exemple), une idée serait de faire un rendu sur texture de la zone, downsampler la texture pour arriver à un pixel de couleur moyenne, et dessiner la zone avec ce pixel (plus ou moins).
Pour cela: nous avons choisi et essayé de passer par le GPU. Nous pensons qu'il nous faut utiliser les Frame Buffer Objects pour le rendu sur texture mais nous ne trouvons pas de tutoriels ou d'exemples assez concrets permettant de nous guider suffisament pour réaliser cela.
Si vous avez une méthodologie avec osg efficace pour réaliser tout cela, nous sommes preneurs.
En terme non technique, nous voulons récupérer une zone de la scène dans une matrice de pixels, et pouvoir réécrire dessus!
N'hésitez pas si vous avez des questions.
Merci par avance.
Re: Où en sommes-nous ?
Bonjour,
L'exemple osgprerender est une bonne source d'info : si osgprerender est lancé avec le paramètre "--image", il fait un premier rendu de la scène 3D (l'avion), capture le résultat dans une texture, la tripatouille (met le fond en jaune je crois) et la réutilise pour la plaquer sur un object 3D (drapeau qui flotte).
Par contre, ça rame... Comme la texture fait un aller-retour de la mémoire GPU vers la mémoire CPU... Les pixels shaders pourraient aller plus vite (en travaillant directement dans la mémoire GPU). Mais bon, les perfs seront discutées plutôt à la fin, quand tout le reste sera au point.
L'exemple osgprerender est une bonne source d'info : si osgprerender est lancé avec le paramètre "--image", il fait un premier rendu de la scène 3D (l'avion), capture le résultat dans une texture, la tripatouille (met le fond en jaune je crois) et la réutilise pour la plaquer sur un object 3D (drapeau qui flotte).
Par contre, ça rame... Comme la texture fait un aller-retour de la mémoire GPU vers la mémoire CPU... Les pixels shaders pourraient aller plus vite (en travaillant directement dans la mémoire GPU). Mais bon, les perfs seront discutées plutôt à la fin, quand tout le reste sera au point.
Page 1 sur 1
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum
|
|