你可以使用Python来将一个长文本文件按字数分割成多个小的文本文件。下面是一个简单的示例代码,可以帮助你实现这个任务:
def split_text(input_file, output_prefix, max_words_per_file): with open(input_file, 'r', encoding='utf-8') as f: text = f.read() words = text.split() total_words = len(words) num_files = (total_words // max_words_per_file) + 1 for i in range(num_files): start_idx = i * max_words_per_file end_idx = (i + 1) * max_words_per_file output_file = f"{output_prefix}_{i + 1}.txt" with open(output_file, 'w', encoding='utf-8') as f: f.write(' '.join(words[start_idx:end_idx])) if __name__ == "__main__": input_file = "input.txt" # 输入长文本文件的文件名 output_prefix = "output_file" # 输出文件的前缀,每个文件将以此前缀加上序号命名 max_words_per_file = 500 # 每个输出文件包含的最大字数 split_text(input_file, output_prefix, max_words_per_file)
在这个示例代码中,split_text
函数接受输入文件名、输出文件前缀和每个输出文件包含的最大字数作为参数。它首先读取输入文件中的文本,然后将文本分割成单词。接下来,它计算出需要创建的输出文件数量,并循环创建这些文件,每个文件包含指定数量的字词。
请注意,这只是一个简单的示例,可能不适用于所有情况。如果你的文本中包含特殊字符或标点符号,你可能需要根据实际情况进行适当的调整。