Блог экспериментатора инженера-разработчика: Infanty.
Я пишу how-to статьи на редкие темы или статьи обзоры - для себя и тех кто со мной работает.
Блог существует при поддержке: "Оккупационных сил Марса".

Пример вывода текста скриптом на Python 3.3 с использованием uWSGI:

def application(env, start_response):
    start_response('200 OK', [('Content-Type','text/html')])
    return [b"Hello World"] 

Пример вывода текста (хранящегося в переменной) в кодировке UTF-8, скриптом на Python 3.3 с использованием uWSGI:

def application(env, start_response):
    start_response('200 OK', [('Content-Type','text/html')])
    sentence = """Мама мыла раму. Arthur didn't feel very good."""
    return bytes(sentence.encode('utf8')) 

Пример вывода разбитого на слова предложения (с объединением элементов списка слов в одну строку с разделителем: "|") в кодировке UTF-8, скриптом на Python 3.3 с использованием uWSGI и библиотеки NLTK:

import nltk
def application(env, start_response):
    start_response('200 OK', [('Content-Type','text/html')])
    sentence = """Arthur didn't feel very good."""
    tokens = nltk.word_tokenize(sentence)
    text = "|".join(str(x) for x in tokens)
    return bytes(text.encode('utf8'))

Ещё один вариант вывода разбитого на слова предложения (с объединением элементов списка слов в одну строку с разделителем: "|") в кодировке UTF-8, скриптом на Python 3.3 с использованием uWSGI и библиотеки NLTK:

import nltk
def application(env, start_response):
    start_response('200 OK', [('Content-Type','text/html')])
    sentence = """Мама мыла раму. Arthur didn't feel very good."""
    tokens = nltk.word_tokenize(sentence)
    text = "|".join(str(x) for x in tokens)
    yield bytes(text.encode('utf8'))