• avatar ShM
  • 0
Что-то я был слишком краток. Объясню:
1. Никто не удосужился сделать кросс-линки на то, откуда стырен релиз. Ни одного упоминания Virtual TR-DOS на странице примера. Это скотство, я считаю.
2. Мороз, где апи на zxart.ee? Дай доступ. Я тоже себе сделаю на VT галереи, пусть хранится.
  • avatar ShM
  • 0
Втихую так делать — это просто скотство, если честно.
Моя мотивация продолжать что-то упала ниже плинтуса.
Пусть Мороз занимается VT.
Спасибо.
  • avatar Vinnny
  • 3
результаты и все работы выложены на оф.сайт.
  • avatar oisee
  • 0
  • avatar oisee
  • 0
Для фильтров и прочих взаимосвязанных сущностей удобен OData, никакого особого API и придумывать не понадобится.
  • avatar nodeus
  • 2
Исправил некоторые ошибки. Прилагаю исправленный вариант.
Скачать из тучи
Спасибо, поправлю. Делал впопыхах между другими делами, не успел разобраться, откуда там всякие спецэффекты берутся в меню, вроде двойного алфавита или каких-то странных ссылок на другие языки.
По главной странице вообще нужны идеи — что показывать, сколько, как. Информации в базе очень много, соорудить можно довольно немало всего.
  • avatar Buddy
  • 1
Заметил на Zxart новый функуционал. При наведении на автора или группы всплывают буковки. Очень удобно. Но не могу взять в толк, зачем алфавит идет 2 раза?
Не стал ждать весны и затянул весь ZXAAA архив. Несколько мелочей еще буду фиксить, а так — всё.
zxn.ru парсить по-тупому нет смысла, надо нормально интегрировать через API.
Примерно такой же набор фильтров будет и в категориях софта на zx-art, пока еще руки до них не дошли. Наладим, чтоб было удобно, так как имеющиеся сейчас фильтры — это ахтунг, так быть не должно.
По совету ShaMAN добавил пример вызова API с указанием таймстемпа для получения только изменившихся с указанного времени объектов.
  • avatar nyuk
  • 3
А, понял. Вам нужно локальное зеркало сайта, а не база. Тогда вопрос снимаю. А вот со скриптами, как мне кажется, дальше будет только хуже. Ну в смысле лучше для разработчиков, лучше для пользователей, но хуже для Вас. Все-таки 21-й век на дворе.
  • avatar tae1980
  • 0
А зачем его вообще парсить? Если мне нужно просто инфа, а форма подачи и так устраивает.
Ты пробовал выкачивать wget'ом сайты где все на скриптах реализовано? Как удачно? У меня вот нет.

Да я из 90х, и мне влом да же на копку нажать, хочу что бы всё само делалось, тем более что это возможно. Зачем мне геморой в изучении чего-то без чего могу нормально жить? Я давно вырос из возраста когда нужно доказывать свою «крутость» или решать проблемы ради решения.
Проблем мне в реальной жизни хватает и в бизнесе, вон уже почти седой. У самого проектов вагон и меленькая тележка, и лучше время на них потрачу.

Парень делает хорошее дело, я разве говорю что-то против?

Только вот гладя на реализация, понимаю что через N число лет, когда мне потребляться решить похожу задачу, его ресурс пополнит приведенный выше список баз данных, которые нужно будет слить. Ну будет с ним чуть проще работать, это кардинально ни чего не меняет.
ну и где теперь это ваше фидо?
но это ж было потом на БББ?
было прикольно выбрать двумя ползунками период и автора\пати и т п.
например, нас интересуют демки производства pipiskasoft выставленные на popaparty и nepopa-fest в период с 1999 по 2001
запилите свой piratebay с exolon и жалкими старушками, любители wget )

дима — супербизон
в свое время, когда ааа упал, я его базу цеплял к стороннему скрипту по-своему, по-сельски. получалось что-то вроде инет магазина без денег — фильтрация по годам, издателям, релизерам — как в битриксе, не к ночи будет помянут. )
  • avatar nyuk
  • 1
2. У меня будет только одна просьбы, сделай сайт как можно проще, без современных наворотов — что бы его можно было выкачать wget'ом. Я сильно сомневаюсь, что кто-то будет (и я в том числе) писать ни каких приблуд и использовать твой API, так как это геморрой, а в жизни его и так много. Проще подправить строчку в батнике и за ночь выкачать весь сайт. Или вообще настроить запуск по таймеру раз в неделю, новьё само будет падать на комп. Интернет сейчас безлимитный, а диски большие.
Бред какой-то. Прямо вот лихими 90-ми пахнуло. Никаких приблуд писать не нужно. Просто настраиваешь wget на адрес API. И получаешь json, который:
1. Гораздо легче распарсить, чем даже самый простой сайт. И я уж не говорю, что в большинстве языков есть готовые json-декодеры.
2. Твой скрипт не будет зависеть от дизайна сайта. А дизайн не меняется только у мертвых сайтов.
3. Получаешь кучу дополнительных возможностей на твой вкус. ЛЮБЫХ. В первом письме Дима прямо написал, что готов идти навстречу.
  • avatar Buddy
  • 4
Работа очень полезная и сверхгеморройная. Все, что могу сказать: Дима, удачи тебе
  • avatar tae1980
  • 0
1. Где я говорили о «практичности»? Ты поднял вопрос об «эффективности», на что я ответил. Без «ручного труда» получиться фигня. Собственно по этой причине я много лет откладывал подобную работу, нужно делать либо «хорошо», либо «да же не начинать».
2. У меня будет только одна просьбы, сделай сайт как можно проще, без современных наворотов — что бы его можно было выкачать wget'ом. Я сильно сомневаюсь, что кто-то будет (и я в том числе) писать ни каких приблуд и использовать твой API, так как это геморрой, а в жизни его и так много. Проще подправить строчку в батнике и за ночь выкачать весь сайт. Или вообще настроить запуск по таймеру раз в неделю, новьё само будет падать на комп. Интернет сейчас безлимитный, а диски большие.
3. Мне удобнее работать через фидо. Копиться информация и копиться. Глянешь на индикатор «о новье пришло» дайка взгляну. Несколько кликов мышкой, пара секунд и уже все работает. Но это мне удобно, не говорю за других. Фидо предлагал исключительно в качестве «правильного» примера «как нужно делать». Экономиться время и нервы пользователя, ведутся куча резервных копий (из которых «если что» база восстанавливаться автоматически) и потеря главного источника уже не катастрофа (разве не это декларировалась как одна из главных целей?). НО конечная реализация всегда за автором проекта.