Effetto joule
Ciao a tutti, sarà l' ora tarda ma sono intrippato e chiedo lumi.
Dunque, se ho una Resistenza R = 4,7 ohm e una corrente che la attraversa pari a 0.3A, otterrò un effetto joule W = R * I^2 = 0.423 Watt .
Più watt, più riscalda. Come si evince dalla formula il calore va come I al quadrato, quindi raddoppiando eventualmente la corrente si avranno 4.7 * (0.6^2) ovvero 1,692 watt, appunto il quadrato del primo risultato!
La corrente ha dunque un ruolo fondamentale nel calore prodotto dalla reisistenza.
Il mio quesito riguarda invece dei LED. mi spiego.
se ho 1 led con Vf = 3volt e la corrente che lo attraversa I = 0.3A, dato che W = V * I avrò W = 0.9 watt.
Se invece avessi non più uno, ma 3 led in serie con Vf = 3volt e la corrente che li attraversa I = 0.1A, il calcolo W uscirebbe W = 3* (V * I) = 3* 0.3 = 0.9 watt. Teoricamente uguale.
Ma perché testando entrambe le opzioni, in pratica mi ritrovo che la seconda soluzione mi riscalda di meno?
Ovviamente si tratta di led diversi, uno concepito per essere attraversato da 0.7A (e io gliene mando solo 0.3A) l' altro 0.350A e io gliene mando solo 0.1A.
Fatto sta che i 3 in serie mi riscaldano di meno. Eppure sulla carta i W sono uguali...se non sbaglio qualcosa.
Idee riguardo la motivazione? sono meravigliato eppure la fisica non sbaglia mai, quindi di sicuro mi sfugge qualcosa.
Dunque, se ho una Resistenza R = 4,7 ohm e una corrente che la attraversa pari a 0.3A, otterrò un effetto joule W = R * I^2 = 0.423 Watt .
Più watt, più riscalda. Come si evince dalla formula il calore va come I al quadrato, quindi raddoppiando eventualmente la corrente si avranno 4.7 * (0.6^2) ovvero 1,692 watt, appunto il quadrato del primo risultato!
La corrente ha dunque un ruolo fondamentale nel calore prodotto dalla reisistenza.
Il mio quesito riguarda invece dei LED. mi spiego.
se ho 1 led con Vf = 3volt e la corrente che lo attraversa I = 0.3A, dato che W = V * I avrò W = 0.9 watt.
Se invece avessi non più uno, ma 3 led in serie con Vf = 3volt e la corrente che li attraversa I = 0.1A, il calcolo W uscirebbe W = 3* (V * I) = 3* 0.3 = 0.9 watt. Teoricamente uguale.
Ma perché testando entrambe le opzioni, in pratica mi ritrovo che la seconda soluzione mi riscalda di meno?
Ovviamente si tratta di led diversi, uno concepito per essere attraversato da 0.7A (e io gliene mando solo 0.3A) l' altro 0.350A e io gliene mando solo 0.1A.
Fatto sta che i 3 in serie mi riscaldano di meno. Eppure sulla carta i W sono uguali...se non sbaglio qualcosa.
Idee riguardo la motivazione? sono meravigliato eppure la fisica non sbaglia mai, quindi di sicuro mi sfugge qualcosa.
GRAZIE A TUTTI!!