Vai al contenuto


Foto
- - - - -

Un Upsampling da miracoli?


  • Per cortesia connettiti per rispondere
3 risposte a questa discussione

#1 Bernardo Gattabrìa

Bernardo Gattabrìa

    Veterano di Nikonland

  • Nikonlander Veterano
  • StellettaStellettaStellettaStellettaStellettaStelletta
  • 1055 messaggi

  • Nazione : Italia

  • Città: Roma
  • Data di nascita: 27-03-1951
  • M/F: Maschio
  • Corpo Principale: Hasselblad/nikon D700
  • Ob.vo Principale: Distagon/Nikkor 28-70 AFS
  • Nikonista dal: 1968

Inviato 16 novembre 2016 - 11:03

Ci sono sempre state delle tecniche di upsampling per creare versioni più grandi di immagini a bassa risoluzione.

Sembra che Google abbiano creato un nuovo modo di aumentare la risoluzione delle immagini che ha dell'incredibile rispetto ai metodi già esistenti.

RAISR (rapid ed accurate image super resolution) questo è il nome del software che sfruttando una coppia di immagini una a bassa risoluzione un'altra con un aumento notevole del numero dei pixel, genera un algoritmo che ricrea un notevole dettaglio all'immagine. La metodologia su cui opera tale software sfrutta i bordi di piccole aree dell'immagine ( idettagli) e in particolar modo la direzione dei bordi. Viene quindi generato un database di 10.000 coppie di immagini e tale processo dura circa un'ora. RAISR quindi crea un singolo filtro per ogni singolo pixel e così facendo un'immagine a risoluzione molto più alta di quella di partenza. In tale processo possono essere rimossi artefatti di  aliasing, effetti moirè o linee frastagliate.

Tale processo potrebbe consentire anche un risparmio di banda nella trasmissioni di immagini, potendosi ricostruire l'immagine a piena risoluzione, solo dopo la ricezione.

 

Che ne pensate? funzionerà davvero? Sarà reso presto disponibile gratuitamente integrato in LR e photoshop?

 

google4.png


Saluti

bergat

#2 Leonardo Visentìn

Leonardo Visentìn

    Leonardo Visentin

  • Nikonlander Veterano
  • StellettaStellettaStellettaStellettaStellettaStelletta
  • 2058 messaggi

  • Nazione : Iceland

  • Città: Rosà (VI)
  • Data di nascita: 17-08-1981
  • M/F: Maschio
  • Corpo Principale: X-T2
  • Ob.vo Principale: XF 14/2.8, XF 56/1.2
  • Nikonista dal: 2009
  • Perchè mi sto iscrivendo ?: -
  • Generi fotografici praticati: Vari

Inviato 16 novembre 2016 - 11:11

Dal vedere questo altro sample

https://1.bp.blogspo...LcB/s1600/5.png

Non sembra molto qualitativo... pare un acquerello...

Miniature Allegate

  • 5.png

The hardest thing in photography is to create a simple image. - Anne Geddes


Your first 10,000 photographs are your worst. - Henri Cartier-Bresson

#3 Francesco64

Francesco64

    Nikonlander Verace

  • Nikonlander Veterano
  • StellettaStellettaStellettaStellettaStelletta
  • 807 messaggi

  • Nazione : Italia

  • Città: Lecco
  • Data di nascita: 03-07-1964
  • M/F: Maschio
  • Corpo Principale: D800
  • Ob.vo Principale: Sigma Art 24-105 f4
  • Nikonista dal: 1989
  • Perchè mi sto iscrivendo ?: sono qui praticamente da quando esiste
  • Generi fotografici praticati: animali selvatici, paesaggio, sport, concerti, danza

Inviato 16 novembre 2016 - 11:27

La matematica non e' un'opinione.  :)

 

Il dettaglio che non c'e' NON puo' essere inventato, a prescindere dall'algoritmo.

Vero e' che ci sono algoritmi di interpolazione piu' o meno buoni, capaci di rendere un'immagine piu' piacevole da vedere e indispensabili per evitare che ci siano linee spezzettate e colori  non sfumati.

 

Pero' anche le sfumature sono supposizioni, se in mezzo c'erano dei dettagli quelli sono andati persi per sempre. E se la linea era spezzettata e la raddrizzo ho generato un artefatto.

C'e' un famoso esempio in proposito: io fotografo una zebra e tutti i pixel cadono sul nero (ok, la risoluzione e' diciamo... limitata o sono molto lontano :P ): nessun algoritmo ricostruira' una zebra ma piuttosto un cavallo nero.  ;)

 

Quindi l'algoritmo di google puo' darsi che sia eccellente ma non puo' ricavare dettagli inesistenti.



#4 andre_

andre_

    Veterano

  • Nikonlander Veterano
  • StellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStellettaStelletta
  • 6312 messaggi

  • Nazione : Denmark

  • Città: Charlottenlund
  • Data di nascita: 10-04-1973
  • M/F: Maschio
  • Corpo Principale: M
  • Ob.vo Principale: Nokton-M 50/1.5
  • Nikonista dal: 1998
  • Perchè mi sto iscrivendo ?: x

Inviato 16 novembre 2016 - 12:03

La cosa in sé mi pare molto interessante, ma non ho approfondito. 

Di certo una tua affermazione non é fsicamente possibile, come ben spiegato da Francesco:

....

Tale processo potrebbe consentire anche un risparmio di banda nella trasmissioni di immagini, potendosi ricostruire l'immagine a piena risoluzione, solo dopo la ricezione.

...

 

La matematica non e' un'opinione.  :)

 

Il dettaglio che non c'e' NON puo' essere inventato, a prescindere dall'algoritmo.

...

 

Ma per il resto ben venga una ricerca in questo senso, che non puó che essere utile per un sacco di motivi. :) 

 

Mi pare che gli esempi in giro non facciano gridare al miracolo, soprattutto perché l'algoritmo sembra indirizzato piú che altro ad un aumento dello sharpening, cosa che contrasta un poco con le aspettative di un upsampling. 

Ma é un inizio, e l'approccio teorico che hai ben descritto sembra una idea molto buona. :) 

a_

 

P.S. Fino ad oggi il mio metodo preferito rimane quello integrato a Lightroom (il Laczko, mi pare), che non ho idea se sia stato integrato nelle ultime versioni di Ps. 

 


andrea landi
justnuances.com
 
Chissà cosa si trova a liberarela fiducia nelle proprie tentazioni...





0 utente(i) stanno leggendo questa discussione

0 utenti, 0 ospiti, 0 utenti anonimi