I have been thinking a lot lately about “diachronic AI” and “vintage LLMs” — language models designed to index a particular slice of historical sources rather than to hoover up all data available. I’ll have more to say about this in a future post, but one thing that came to mind while writing this one is the point made by AI safety researcher Owain Evans about how such models could be trained:
Ранее стало известно, что сильнее всего за год новостройки в Москве подорожали в районе Филевский парк, а готовые квартиры — в районе Марфино.
。91视频对此有专业解读
Раскрыты подробности о договорных матчах в российском футболе18:01
Making Unicode risk measurable