Pb de dégradé en 16 bits

Pb de dégradé en 16 bits - Programmation

Marsh Posté le 06-07-2001 à 09:03:29    

Hugh, je suis en train de faire une petite annimation flash pour ma boite, et ils veulent absolument en arriere plan un dégradé a  la con. En 24 et 32 bits, pas de probleme mais quand je passe en 16 bits, j'ai 8 bande bleu pourri. Le fichier est en jpg qualité top réalisé avec fireworks ....
Quelqu'un a une idée, parce qu'ils veulent absolument ce dégradé et ca commence à me tapper sur le systeme.
Merci .......

Reply

Marsh Posté le 06-07-2001 à 09:03:29   

Reply

Marsh Posté le 06-07-2001 à 09:45:23    

pkoi un bitmap???
tu peut pas faire un dégradé dans une forme vectorielle? je pense notament que falsh sera capable de la ditherer et sera plus jouli.

Reply

Marsh Posté le 06-07-2001 à 09:48:14    

précise un peu plus....
en 24/32 bits toutes les composantes sont sur 8 bits, en 16bit tu as le rouge & le bleu sur 5 bits et le vert sur 6 bits (parceque l'oeil est censé être plus précis sur le vert, c'est la couleur qui influe le plus sur la luminosité)
néamoins le comportement du jpeg au niveau image est subtile... mais quand tu change entre le 24/32 => 16, le jpeg change pas, c'est le bureau non ? (donc pb driver vidéo ou flash)

Reply

Marsh Posté le 06-07-2001 à 09:57:37    

Oui, ou alors dégrade volontairement ton image en la "lissant" correctement (dithering method:error diffusion+reduce color bleeding, pallette mode:octree) et importe la en bmp, pas en jpeg! Elle sera bien plus moche en 16bits mais potable alors en 8.
 
Non vraiment, fais un fond avec un dégradé vectoriel.(un carré avec comme "fill color" un dégradé, sisi ça éxiste)

Reply

Marsh Posté le 06-07-2001 à 10:25:57    

Oui, c'est pas con du tout de la faire en vectoriel, excuser moi encore pour mon ignorance.....
Merci à tous

Reply

Marsh Posté le 06-07-2001 à 11:19:14    

:gun: Je dois etre manchot............
bon je viens de faire mon dégradé dans flash tout beau, tout propre, et quand je passe ma résolution d'écran en 16 bits, idem, le dégradé n'est plus propre.....
 :ouch: Faut il que je me mette en 16 bits ( résolution bureau pour faire l'animation ????? )
PLEASE HELP ME ...............

Reply

Marsh Posté le 06-07-2001 à 12:15:38    

Normal tu es en 16 bit... On peut pas en inventer des couleurs quand tu es en 16 et que tu affiches un fond d'écran en gégradé, sur ton bureau par exemple, bah il y a des barres et c normal car en 16 bits les teintes sont bien moins nombreuses... Vala, donc moi j'ai envie de dire impossible

Reply

Marsh Posté le 06-07-2001 à 12:57:50    

il doit y avoir une option qui permet ça, cherche bien. c'est tout à fait possible de faire des jolis dégradés en 16 bits, j'avais testé ça en code à une époque. sans dithering, le dégradé était atroce, avec dithering on ne voyait pas la différence 16<->32 bits.

Reply

Marsh Posté le 06-07-2001 à 20:35:07    

Oui, mais ça signifie modifier la palette de couleurs. Si tu utilises la palette de couleurs par défaut, tu auras toutes les couleurs, mais avec 8 fois moins de teintes en 16 bits qu'en 24 bits.
 
Si tu modifies la palette de couleurs explicitement, tu pourras recréer des nuances manquantes (mais tu supprimeras des nuances d'autres couleurs).

Reply

Marsh Posté le 06-07-2001 à 23:17:29    

hem, y'a pas de palette en +15 bpp.
 
sinon, un truc tout con: dans n'importe quel soft, lorsque tu charge un image dans un mode A (16/24/32), le fait de passer en mode B va niquer l'image, c'est dû au serveur graphique de windows (enfin je pense), en gros si tu charges une image dans une appli en 32 bpp, tu passes rapidement en 16 bpp, c'est crade. mais si tu quittes l'appli & que tu la relance avec la même image, ce sera moins crade (d'un point de vue technique, je dirais que fo que l'image soit passé au serveur en 16bpp, alors que si elle passé en 32bpp, puis tu switches le contexte graphique en 16bpp, le serveur graphique cradifie l'image).

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed