48684682 发表于 2024-6-21 17:46

最近听到修电脑的人荒唐神论!

他说电源额定功率650W你i3加核显 都消耗每千瓦时650W。

i3加核心不就是鲁大师所显示的消耗几十W吗?怎么关系上电源?
神经病?那人家插显卡用一个650W电源,拔显卡就换200W电源?
极端一点为了省电i3不到几十瓦不就装个100W电源省电?
真是有这事还是修电脑的弱智。

feifeix 发表于 2024-6-21 17:58

{:3_100:} 听听就好,别当真。

杰00杰 发表于 2024-6-21 18:17

听不太懂 我不是修电脑的 但我认识我们这边修电脑的小老板 人挺好 山东泰安人 来我这边10多年了 现在也买房子了 挺好的一个人

xinna201 发表于 2024-6-21 18:28

老板是为了你以后升级考虑,组装电脑配个大的电源没毛病。

48684682 发表于 2024-6-21 19:42

本帖最后由 48684682 于 2024-6-21 19:46 编辑

杰00杰 发表于 2024-6-21 18:17
听不太懂 我不是修电脑的 但我认识我们这边修电脑的小老板 人挺好 山东泰安人 来我这边10多年了 现在也买房 ...

意思就是电源决定总功率1000W电源一小时用1000W。
管你配置是速龙双核还是奔腾

bdpqnumw 发表于 2024-6-21 21:06

48684682 发表于 2024-6-21 19:42
意思就是电源决定总功率1000W电源一小时用1000W。
管你配置是速龙双核还是奔腾 ...

学白上了,物理全还给老师了,现在自己当老师了,开始胡扯了。

zlts12y 发表于 2024-6-22 09:54

本帖最后由 zlts12y 于 2024-6-22 09:58 编辑

额定650w是能额定为电脑输出650w功耗,超过650w就烧电源或者自动关机,电源转换有损耗的,想要输出650w就得给电源输入超过650w的电,转换后才得到650w。这个650w上限,不是下限,如果整机才50w功耗,那么耗电也就六七十多w。

I313524 发表于 2024-6-22 10:09

假设芯片耗电100w,由一个500w电源在供电。如果像大神说得那样,电源是以500w功率在运转的,但芯片只能吃掉100w,那还有400w怎么办?无任何办法,只能转化为热量和电磁波释放掉,那你的电源不叫电源,明明是个400w的房间加热器。噗。

123456789007 发表于 2024-6-22 13:14

最起码监测对比一下空闲满载
整天就知道胡诌
{:3_56:}


ancientdoom 发表于 2024-6-22 17:28

吓得我连忙看了一下电源。。。233333333

sleep188 发表于 2024-6-23 10:53

现在修电脑的半吊子太多,待机功耗和满载功耗两码事,我刚刚寄了一个850W电源,用的7900xtx,上网看视频没事,开大型软件和游戏立马重启了,换了个1000瓦电源稳如老狗。。。

48684682 发表于 2024-6-24 07:41

sleep188 发表于 2024-6-23 10:53
现在修电脑的半吊子太多,待机功耗和满载功耗两码事,我刚刚寄了一个850W电源,用的7900xtx,上网看视频没 ...

用苏妈皇卡 跑游戏消耗不能1000%

跑专业软件不支持~
页: [1]
查看完整版本: 最近听到修电脑的人荒唐神论!