M1 informatique
Vous souhaitez réagir à ce message ? Créez un compte en quelques clics ou connectez-vous pour continuer.
-55%
Le deal à ne pas rater :
Coffret d’outils – STANLEY – STMT0-74101 – 38 pièces – ...
21.99 € 49.04 €
Voir le deal

Où en sommes-nous ?

3 participants

Aller en bas

Où en sommes-nous ? Empty Où en sommes-nous ?

Message par Mickael Jeu 31 Jan - 17:14

Bonjour,

Suite à votre mail, voici où nous en sommes.
Nous avons commencer le cahier des charges ainsi qu'une première application permettant de visionner une image 2D.
Nous avons créer deux groupes chacun travaillant sur une modification précise de l'image; un groupe travaille sur le flou et un autre groupe sur la reconstruction du cerveau sur la zone noire due au nerf optique.
En 3ème partie nous nous attaquerons à la déformation de l'image.

Nous sommes également toujours dans une phase d'apprentissage d'open scene graph, même si nous avons déjà appris beaucoup de choses.
Mickael
Mickael

Nombre de messages : 559
Age : 38
Date d'inscription : 22/01/2007

http://webmikl.free.fr

Revenir en haut Aller en bas

Où en sommes-nous ? Empty Re: Où en sommes-nous ?

Message par sylvain_marie Ven 1 Fév - 0:23

Merci pour le topo.

Quelques broutilles :

1/ Profondeur de champ :
A propos de la gestion du flou, une doc intéressante (avec un peu de théorie) mais vous n'aurez peut-être pas le temps de l'implémenter) :
http://ati.amd.com/developer/gdc/Scheuermann_DepthOfField.pdf

2/ Zone aveugle : vous moyennez du cercle entourant la tâche aveugle vers l'intérieur ?

3/ Champ de vision/Projection non parallèle : plein d'expérimentation à prévoir :-) Ni parallèle ni sphérique, ou est le bon dosage ? WxWigets sera utile pour contrôler la vue 3D.

4/ Une fois le choix de la bonne projection fait, j'ai l'impression qu'il ne faudra pas négliger un temps de recherche pour être capable de gérer les "cônes" de vision (couleur/contraste/...) projetés en 2D sur le rendu final ? A voir.

Sylvain

sylvain_marie

Nombre de messages : 13
Date d'inscription : 23/01/2008

http://www.nexgenergo.com

Revenir en haut Aller en bas

Où en sommes-nous ? Empty Re: Où en sommes-nous ?

Message par sylvain_marie Ven 1 Fév - 0:34

La présentation d'ATI ci-dessus mais en plus technique :
http://ati.amd.com/developer/shaderx/ShaderX2_Real-TimeDepthOfFieldSimulation.pdf
Ca parle de qualité de Bokeh (http://fr.wikipedia.org/wiki/Bokeh), super intéressant, mais peut-être trop long à faire pour la TER. A garder si tout le reste marche ? :-)
(bon OK j'arrête d'abuser de google)

sylvain_marie

Nombre de messages : 13
Date d'inscription : 23/01/2008

http://www.nexgenergo.com

Revenir en haut Aller en bas

Où en sommes-nous ? Empty Re: Où en sommes-nous ?

Message par Mickael Ven 1 Fév - 16:09

sylvain_marie a écrit:
2/ Zone aveugle : vous moyennez du cercle entourant la tâche aveugle vers l'intérieur ?

Oui, c'est ce que nous aimerions faire en effet. Il faudrait que nous arrivions à faire ceci, tout en évitant une grosse tâche au centre.

Mickaël
Mickael
Mickael

Nombre de messages : 559
Age : 38
Date d'inscription : 22/01/2007

http://webmikl.free.fr

Revenir en haut Aller en bas

Où en sommes-nous ? Empty Dépendances des activités

Message par Sylvain Lun 4 Fév - 12:52

La position (x et y dans la fenêtre OpenGL) et la taille (rayon) de la tâche aveugle dépendra de la projection utilisée et du champ de vision. L'item 4 du diagramme de GANTT dépend donc des items 6, 10 et 11 ?

Sylvain
Invité


Revenir en haut Aller en bas

Où en sommes-nous ? Empty Dépendance des activités & Cahier des Charges

Message par Mickael Lun 4 Fév - 13:03

Sylvain a écrit:La position (x et y dans la fenêtre OpenGL) et la taille (rayon) de la tâche aveugle dépendra de la projection utilisée et du champ de vision. L'item 4 du diagramme de GANTT dépend donc des items 6, 10 et 11 ?

En effet, nous n'y avions pas pensé lorsque nous avons fait le diagramme.
Nous ferons donc cette mise à jour dans la soirée.

Si vous avez regarder le cahier des charges, auriez-vous d'autres remarques, améliorations à nous suggérer ?
Mickael
Mickael

Nombre de messages : 559
Age : 38
Date d'inscription : 22/01/2007

http://webmikl.free.fr

Revenir en haut Aller en bas

Où en sommes-nous ? Empty Re: Où en sommes-nous ?

Message par sylvain_marie Lun 4 Fév - 13:53

Mickael a écrit:Si vous avez regarder le cahier des charges, auriez-vous d'autres remarques, améliorations à nous suggérer ?
Juste un détail : en page 4, la tâche aveugle n'est pas au centre (optique) de la rétine, elle est excentrée. Sinon c'est tout bon

sylvain_marie

Nombre de messages : 13
Date d'inscription : 23/01/2008

http://www.nexgenergo.com

Revenir en haut Aller en bas

Où en sommes-nous ? Empty Re: Où en sommes-nous ?

Message par Jonathan Mar 5 Fév - 19:39

Bonjour,

Nous sommes face à un problème technique avec osg. Peut-être votre aide pourrait débloquer la situation.

L'idée de base est de récupérer une zone de pixels et les couleurs (dans une matrice).
Pour faire la tache de mariotte (par exemple), une idée serait de faire un rendu sur texture de la zone, downsampler la texture pour arriver à un pixel de couleur moyenne, et dessiner la zone avec ce pixel (plus ou moins).

Pour cela: nous avons choisi et essayé de passer par le GPU. Nous pensons qu'il nous faut utiliser les Frame Buffer Objects pour le rendu sur texture mais nous ne trouvons pas de tutoriels ou d'exemples assez concrets permettant de nous guider suffisament pour réaliser cela.
Si vous avez une méthodologie avec osg efficace pour réaliser tout cela, nous sommes preneurs.

En terme non technique, nous voulons récupérer une zone de la scène dans une matrice de pixels, et pouvoir réécrire dessus!

N'hésitez pas si vous avez des questions.

Merci par avance.
Jonathan
Jonathan
Admin
Admin

Nombre de messages : 598
Age : 37
Date d'inscription : 22/01/2007

http://www.jonathan.delfour.eu

Revenir en haut Aller en bas

Où en sommes-nous ? Empty Re: Où en sommes-nous ?

Message par sylvain_marie Mer 6 Fév - 20:12

Bonjour,

L'exemple osgprerender est une bonne source d'info : si osgprerender est lancé avec le paramètre "--image", il fait un premier rendu de la scène 3D (l'avion), capture le résultat dans une texture, la tripatouille (met le fond en jaune je crois) et la réutilise pour la plaquer sur un object 3D (drapeau qui flotte).

Par contre, ça rame... Comme la texture fait un aller-retour de la mémoire GPU vers la mémoire CPU... Les pixels shaders pourraient aller plus vite (en travaillant directement dans la mémoire GPU). Mais bon, les perfs seront discutées plutôt à la fin, quand tout le reste sera au point.

sylvain_marie

Nombre de messages : 13
Date d'inscription : 23/01/2008

http://www.nexgenergo.com

Revenir en haut Aller en bas

Où en sommes-nous ? Empty Re: Où en sommes-nous ?

Message par Jonathan Mer 6 Fév - 20:37

Merci!
Nous allons regarder l'exemple d'un peu plus près.

A bientôt!
Jonathan
Jonathan
Admin
Admin

Nombre de messages : 598
Age : 37
Date d'inscription : 22/01/2007

http://www.jonathan.delfour.eu

Revenir en haut Aller en bas

Où en sommes-nous ? Empty Re: Où en sommes-nous ?

Message par Contenu sponsorisé


Contenu sponsorisé


Revenir en haut Aller en bas

Revenir en haut


 
Permission de ce forum:
Vous ne pouvez pas répondre aux sujets dans ce forum
Ne ratez plus aucun deal !
Abonnez-vous pour recevoir par notification une sélection des meilleurs deals chaque jour.
IgnorerAutoriser