@[email protected] 我直接把这个功能关了,服务器撑不住……
感觉这个功能放到前端更合适

@[email protected] @[email protected] 哪裡是稍微增加一些負荷,伺服器常常都沒有回應 ​:ai_acid_misskeyio:​ 改成僅限本地好很多,只是還看不出學習的效果

Follow

@pch_xyz @dogcraft 普通的vps哪能跑tensorflow而且数据量还这么大,人家单纯想炫技而已 :weibo_d_erha:

· · Web · 2 · 0 · 3

@[email protected] @[email protected] 所以感觉这个功能应该放在前端,谁想用这个功能谁负担所需要的算力……

@[email protected] @[email protected] 放在前端是可行的嗎?同樣一段機器學習的程式碼,別人的筆電跑50秒,我的Surface Go跑5分鐘還沒跑完😅

@[email protected] @[email protected] 拿幾張圖測試了一下,辨識速度滿快的,預設的Mobilenet V2 Model辨認出NSFW繪畫的效果不太好;Inception V3 Model好很多,但是初始載入時間也長達10幾秒

@[email protected]
一般来说效果好同时也意味着着模型大……
两年前的时候弄过一个80MB大小的模型,网络不好的情况下要等十几分钟才能加载完……

@[email protected] @[email protected] @[email protected]
可是这种功能放在前端并且允许用户自己选择开关的话就没有意义了吧?这个功能是为了自动识别用户上传的内容是否为nsfw吧?

@[email protected] @[email protected] @[email protected] 这个功能只是用了已经训练好了的模型……
丹已经练完了……

@[email protected] @[email protected] @[email protected] 还是有意义的,如果有些图在上班摸鱼时被看到是会社死的……
在前端打开这个功能会多一次保险……
:qhi_01:

@[email protected] @[email protected] @[email protected]
。。。我记得这个功能是自动标记
上传的媒体是否为nsfw啊?已经被mark成nsfw的不需要识别也会被隐藏的(如果打开了“隐藏nsfw图片”功能),而如果这人是要上班摸鱼时往sns上发社死图片的话。。。那我觉得这个人是故意的吧🤔

@[email protected] @[email protected] @[email protected] 感觉这个功能应该是为了应对那些没有nsfw功能的实例吧……
这个检测是在图片进misskey的时候完成的,可以选择只对远程或者本地图片进行检测……

@[email protected] @[email protected] @[email protected] 我说的把这个功能放在前端是指在显示没有标记nsfw的图片前判断一下,如果有问题就不显示了……

@[email protected] @[email protected] @[email protected]
原来如此,那确实是会需要的功能。
但这个好做吗?如果每次显示同一张图片都需要检测一次的话,那就会浪费计算资源。但若是需要保存“是否已经检查过媒体”的状态的话,那媒体数据库就需要大改了
🤔

@[email protected] @[email protected] @[email protected] 对于浏览器端并不会浪费太多资源,而且这个功能的开关与阈值应该在用户手里,按需开启,至于检查过哪些图片也没必要告知服务器……

@[email protected] @[email protected] @[email protected] 还好是应用模型,比训练模型所需的资源低不少,要是带训练的话那得烧一堆显卡了 :shizuku_oh:

Sign in to participate in the conversation
小森林

每个人都有属于自己的一片森林,也许我们从来不曾走过,但它一直在那里,总会在那里。迷失的人迷失了,相逢的人会再相逢。愿这里,成为属于你的小森林。