Допустим, у меня есть очень большой файл. Задача состоит в том, чтобы пройтись по каждой строчке этого файла и собрать какую либо информацию. Подскажите пожалуйста, как лучше всего реализовать этот механизм? Есть ли отличие в механизме, если использовать другие форматы данных в файле?
roswell, Подобную задачу вижу впервые, но не продуктивнее ли будет, например, сначала обрезать файл, прежде чем пихать его в fgets? Я говорю это как "например", потому что именно это пришло мне в голову, до того как я задал этот вопрос
yellow_pus, не думаю что поиск по большому файлу будет быстрее чем перебрать все строки, ведь по сути это должно получится двойное действие одного итого же, сначала пытаемся отсеять потом ищем по уже отсеянному где уже вхождение будет в каждой строке
А по поводу форматов не совсем понятно можно выгрузить таблицу в xml и поиск полей естественно будет быстрее
Ну опять же, меня очень беспокоит то, что в fopen() мы передаем весь файл, разве не будет лучше, если мы например разрежем $path на, допустим, на 500-1000 строк и будем передавать их так?