They also created ghidra! Probably second best
They also created ghidra! Probably second best
To train a diffusion model that only outputs one image with difference is I think not possible you could do an image to image and then fix the seed so you would get a consistent result and then picking the nearest result that is nearly an identical copy
Perfekt das sieht genau nach dem aus was ich suche danke dir!
Gibt es einen Weg meine ganzen Sachen zu migrieren oder wenigstens die ganzen “saved” Sachen zu migrieren? Weil dort Speicher ich mir sinnvolle Sachen ab :D
They probably also do some OCR on that and then let something other run over that to see if the text makes sense (basically letting another AI grade the output, commonly done to judge what’s a good dataset and what isn’t) and then just feed the ai again. Today you have a shortage of data since the internet is too small (yes I know it sounds crazy) so I wouldn’t wonder if they actually tried to use pictures and ocr to gather a bit more usable data
Now I get why it does what it does and how it works. I never thought that the colon was the variable name but it makes so much sense!
Probably because of accessibility I would say. Not good design but it is what it is
I don’t think it matters too much but I’m not sure, I just sticked to using the dedicated extension and it’s working good
Oh yeah I heard about this and saw that mutahar (some ordinary gamers) was doing it once on windows with a 4090. I would love to do that on my GPU and then split it between my host and my VM
Wonderful thank you so much!
I need that wallpaper! Is there a way you could provide me that?
I used llamacpp with opencl but couple of months they supported rocm which is even faster
Ich schließe mich dir an…
Just want to piggyback this. You will probably need more than 6gb vram to run good enough models with a acceptable speed and coherent output, but the more the better.
Hoffentlich bleibt es dabei
Das hab ich mir auch gedacht, weiß man schon genau wie lange der geht? Oder ist es nur diesen Freitag?
Sehr geehrte Bube gehen sie etwa auch wie ich auf die BS 14 in Hamburg auch besser bekannt als bullenscheiße 14? Dort habe ich das gleiche Problem und das Internet hat dort auch nicht funktioniert 😂
Ich kann dies mit meinen noch schlechter Halbwissen bestätigen 😄 Bei Trainingsdaten geht fast immer Qualität vor Quantität stand zumindest auch so in llama 2 paper. Eine Sache fand ich noch interessant du sagtest das llama2 mpt Falcon usw ein MoE modell sein aber ich glaube das stimmt nicht, es gab jetzt von stability ai ein MoE modell von 7B*10 (das heißt das Modell wäre 70B groß, wenn man das bei llama2 7B hätte wäre das Modell ja viel zu winzig um irgendwas zu verstehen gefühlt) oder so, oder gibt es noch etwas anderes was ich nicht kenne? 😅
That was my idea too and it looks like I imagined it to 😂