Кто-нибудь знает, как использовать пользовательский шейдер с GLKit? Не использовать GLBaseEffect.
Наилучшие пожелания,
Кто-нибудь знает, как использовать пользовательский шейдер с GLKit? Не использовать GLBaseEffect.
Наилучшие пожелания,
Насколько я знаю, вы настраиваете и используете шейдерные программы так же, как и в приложении OpenGL ES 2.0, отличном от GLKit. В настоящее время я предпочитаю использовать класс-оболочку GLProgram Джеффа Ламарша, который он предоставляет как часть это руководство (ссылка на код должна быть вверху этой страницы), вместо того, чтобы каждый раз переписывать весь шаблонный код для компиляции и связывания шейдеров.
Я показываю стандартное использование этого в этом ответе. Вам все еще нужно настроить свои атрибуты и униформы, но как только вы это сделаете, вы просто используете программу и рисуете свою геометрию в своем GLKView.
Похоже, что базовые эффекты GLKit предоставляются в качестве обертки для некоторых стандартных шейдерных программ аналогичным образом.
Не мой код, но я нашел это очень полезным. Он даже выводит ошибки для шейдеров.
func compileShader(shaderName: String?, shaderType: GLenum) -> GLuint {
let shaderPath = NSBundle.mainBundle().pathForResource(shaderName!, ofType: "glsl")
var error: NSError? = nil
var shaderString: NSString?
do {
shaderString = try NSString(contentsOfFile: shaderPath!, encoding: NSUTF8StringEncoding)
} catch let error1 as NSError {
error = error1
shaderString = nil
}
var shaderS = shaderString! as String
shaderS += "\n"
shaderString = shaderS as NSString
if shaderString == nil {
print("Failed to set contents shader of shader file!")
}
let shaderHandle: GLuint = glCreateShader(shaderType)
//var shaderStringUTF8 = shaderString!.utf8
var shaderStringUTF8 = shaderString!.UTF8String
//var shaderStringLength: GLint = GLint() // LOL
var shaderStringLength: GLint = GLint(shaderString!.length)
glShaderSource(shaderHandle, 1, &shaderStringUTF8, &shaderStringLength)
//the 2 is number of uniforms
glCompileShader(shaderHandle)
var compileSuccess: GLint = GLint()
glGetShaderiv(shaderHandle, GLenum(GL_COMPILE_STATUS), &compileSuccess)
if compileSuccess == GL_FALSE {
print("Failed to compile shader \(shaderName!)!")
var value: GLint = 0
glGetShaderiv(shaderHandle, GLenum(GL_INFO_LOG_LENGTH), &value)
var infoLog: [GLchar] = [GLchar](count: Int(value), repeatedValue: 0)
var infoLogLength: GLsizei = 0
glGetShaderInfoLog(shaderHandle, value, &infoLogLength, &infoLog)
let s = NSString(bytes: infoLog, length: Int(infoLogLength), encoding: NSASCIIStringEncoding)
print(s)
exit(1)
}
return shaderHandle
}
// function compiles vertex and fragment shaders into program. Returns program handle
func compileShaders() -> GLuint {
let vertexShader: GLuint = self.compileShader("SimpleVertex", shaderType: GLenum(GL_VERTEX_SHADER))
let fragmentShader: GLuint = self.compileShader("SimpleFragment", shaderType: GLenum(GL_FRAGMENT_SHADER))
let programHandle: GLuint = glCreateProgram()
glAttachShader(programHandle, vertexShader)
glAttachShader(programHandle, fragmentShader)
glLinkProgram(programHandle)
var linkSuccess: GLint = GLint()
glGetProgramiv(programHandle, GLenum(GL_LINK_STATUS), &linkSuccess)
if linkSuccess == GL_FALSE {
print("Failed to create shader program!")
var value: GLint = 0
glGetProgramiv(programHandle, GLenum(GL_INFO_LOG_LENGTH), &value)
var infoLog: [GLchar] = [GLchar](count: Int(value), repeatedValue: 0)
var infoLogLength: GLsizei = 0
glGetProgramInfoLog(programHandle, value, &infoLogLength, &infoLog)
let s = NSString(bytes: infoLog, length: Int(infoLogLength), encoding: NSASCIIStringEncoding)
print(s)
exit(1)
}
glUseProgram(programHandle)
self.positionSlot = GLuint(glGetAttribLocation(programHandle, "aVertexPosition"))
//self.colorSlot = GLuint(glGetAttribLocation(programHandle, "SourceColor"))
self.normalSlot = GLuint(glGetAttribLocation(programHandle, "aVertexNormal"))
glEnableVertexAttribArray(self.positionSlot)
// glEnableVertexAttribArray(self.colorSlot)
glEnableVertexAttribArray(self.normalSlot)
return programHandle
}